A pesar de que ya se habla de una regulación relacionada con el uso y aplicaciones de la Inteligencia Artificial (IA), Google aseguró que ese tema aún está en una etapa temprana, pero en la medida que se avance en su desarrollo, le gustaría participar en las discusiones.
“Desde el punto de vista de Google, todavía estamos en una etapa muy temprana de la regulación. En su momento daremos un punto de vista de cuál debería ser la mejor forma, pero nosotros tenemos nuestro propio comité de ética y tenemos nuestras guías sobre la IA responsable”, señaló el líder de Analítica, Datos e IA y Aprendizaje Automático en Google, David Ruiz.
En conferencia de prensa, al margen del evento “Google Cloud: Generative AI Live + Labs”, indicó que es muy posible que cuando las regulaciones estén un poco más avanzadas, tengan que ver con los temas que la compañía ya ha trabajado.
No obstante, el directivo de Google indicó que en México han estado en contacto con distintas instituciones y espera que, eventualmente, se trabaje en conjunto para sacar una revisión nacional, pues a la compañía le interesa participar en las discusiones que se generen para llegar a una regulación.
Respecto a los riesgos en esta era digital, “en Google Cloud trabajamos y apoyamos mucho a nuestros clientes corporativos para que construyan soluciones utilizando nuestra tecnología. La misma que nosotros utilizamos para generar la IA en nuestros productos, la proveemos a nuestros clientes corporativos para que ellos también puedan ofrecer una mejor experiencia y un mejor servicio a sus clientes”, aseguró la directora de Ingeniería, Análisis de Datos e IA en Google Cloud Latinoamérica, Fernanda Jolo.
Precisó que uno de los siete principios de Google es ayudar a que las personas que utilicen la IA también cumplan con sus principios y para ello, en la empresa se generan discusiones sobre casos de uso y de aplicaciones; en caso de no cumplir condiciones de responsabilidad y ética, no proceden a otros temas.
PNMO