El CEO de Google reconoce que tiene dudas sobre el funcionamiento de su IA

La inteligencia artificial es el nuevo escenario de batalla de las tecnológicas. Desde que OpenAI presentara su ya conocidísima herramienta ChatGPT, Microsoft, Google y un sinfín de empresas se han sumado a la ola de la IA y han comenzado a integrarla en sus nuevos productos. 

Sin embargo, aún quedan muchos aspectos por conocer de esta tecnología. Incluso las grandes compañías reconocen no saber los detalles de su funcionamiento. El CEO de Google, Sundar Pichai, ha admitido que hay varias funciones de Bard, su chatbot impulsado por IA, que los expertos de la propia empresa todavía no logran comprender. Se refirió, por ejemplo, a varias capacidades emergentes que ha experimentado su modelo en las últimas pruebas, como el razonamiento, la planificación o la creatividad.

Scott Pelley, periodista de la CBS, le preguntó a Pichai en una entrevista: "No entiendes completamente cómo funciona. Y, sin embargo, ¿lo has soltado a la sociedad?". “Sí. No creo que entendamos completamente cómo funciona una mente humana tampoco", respondió el líder de Google.

Pichai explicó que hay un elemento en sus desarrollos al que le llaman "la caja negra", que hace referencia a aquellos aspectos que no pueden entender. "A veces, no puedes decir por qué dijo esto o por qué se equivocó. Tenemos algunas ideas y nuestra capacidad para entenderlas mejora con el tiempo. Pero ahí es donde está el estado del arte", añadió, tal y como recoge el medio Hipertextual

En la entrevista, el entrevistado menciona también cómo un sistema de IA de Google aprendió, por sí solo, el idioma de Bangladesh. También de su capacidad para reflexionar sobre el dolor que sienten los humanos o cuestiones como la redención.

Según apunta el medio Xataka, Sissie Hsiao y James Manyika, vicepresidentes de Google, reconocieron que al utilizar Bard, encontraron una "experiencia inquietante", ya que su IA no busca respuestas en internet (como se haría con una búsqueda en Google), sino que estas proceden directamente de un programa autónomo que en su mayor parte fue autodidacta. Según ellos, Bard tiene de forma adicional otras "propiedades emergentes", pues aprendió habilidades que no se esperaba que tuviera.

Necesidad de normas que regulen el uso de la IA

En este sentido, el CEO de la compañía alertó de que la sociedad debe abordar este tema “con humildad” e insistió en que “es bueno que algunas de estas tecnologías salgan a la luz para que la sociedad pueda procesar lo que está sucediendo. Y comenzar esta conversación y debate". 

Pero más allá del debate, a Pichai le preocupa la idea de que este tipo de tecnología pueda ser "muy perjudicial si se implementa de manera incorrecta". Por ello, considera que la sociedad debe crear normas claras para la implementación de la IA y aprobar leyes que castiguen el abuso deesta tecnología. 

"No conviene lanzar una tecnología como ésta cuando es muy, muy potente, porque no da tiempo a que la sociedad se adapte", dijo Pichai, reconociendo que es un error que las empresas se dejen llevar por la dinámica competitiva y asegurando que Google está buscando sistemas para poner solución a este dilema.

Fuente: Hipertextual y Xataka

Anterior
Anterior

¿Es la neuroprogramática el futuro de la publicidad contextual?

Siguiente
Siguiente

Google prevé lanzar nuevas herramientas de búsqueda basadas en inteligencia artificial