"Un perro es más listo que la ChatGPT": el líder de Inteligencia Artificial de Meta tiene algo que decir para tranquilizar a todos

Chatgpt Ia Meta Inteligencia Artificial
1 comentario Facebook Twitter Flipboard E-mail
oscar-steve

Steve Saldaña

Editor Senior

Periodista de tecnología y ciencia. Escribo y analizo la industria de plataformas tech en México y soy fan de la ética tecnológica. También soy miembro de la Red Mexicana de Periodistas de Ciencia. Hago locución comercial, produzco podcast y soy presentador del podcast semanal ROM. LinkedIn

Elon Musk no se guardó nada cuando lanzó la poco contenida declaración sobre que la IA "es uno de los riesgos más grandes para las civilizaciones futuras". En el debate intenso sobre si los entrenamientos de modelos de lenguaje debería continuar, hay voces que resuenan que aseguran que los peligros son prácticamente inexistentes y que la IA generativa ha llegado para aportar valor y revolucionar la economía global, no para reemplazar a los humanos.

Y, entre tantas voces, está la de Yann LeCun, líder de Inteligencia Artificial de Meta. Su opinión igual de poco contenida que la de Musk, pero en un sentido totalmente distinto: la IA no es tan inteligente como un humano, ni siquiera tiene la inteligencia de un perro.

Esclareciendo la IA

La aclaración que hace LeCun es más que pertinente en un una conversación acalorada que rápidamente se ha llenado de verdades a medias y el término "inteligencia" que puede confundir a los menos impregnados con las minucias de la conversación. LeCun explica que, aunque la IA lleva "inteligencia" en su nombre, modelos como el de ChatGPT en realidad no son inteligentes porque están entrenados únicamente con lenguaje.

"Estos sistemas están muy limitados, no tienen ningún entendimiento de la realidad o del mundo real", dijo en una declaración retomada por CNBC.

Su declaración puede sonar rechazable para muchos de quienes siguen asombrados con la naturalidad de las respuestas de GPT. Pero, como modelo de lenguaje, el truco está en la masiva cantidad de texto con la que se le ha entrenado, no con que hayamos descubierto al forma de crear inteligencia porque, para ello, primero está el todavía inalcanzable logro de construir conciencia.

"Mucho del conocimiento humano no tiene nada que ver con lenguaje, así que esa parte de la experiencia humana no está capturada por la IA", agregó LeCun.

Ia

La IA puede guardar y reproducir lenguaje, encontrar la maneras más naturales en que una palabra sucede a otra, pero sigue sin poder adquirir conocimiento en la manera en que nosotros lo hacemos. La manera en que los humanos progresan su forma de entender el mundo es todavía inexplicable en muchos sentidos. Como parte de un ejemplo, el LeCun dijo que mientras que un niño de cinco meses no se sorprende demasiado con un objeto que flota (como un globo), un niño de nueve meses se sorprendería fácilmente porque piensa que un objeto no debería flotar.

"No tenemos idea de cómo reproducir esta capacidad con máquinas. Hasta que consigamos esto, no vamos a tener una inteligencia a nivel de humanos, ni siquiera vamos a tener una inteligencia al nivel de un perro o un gato".

Tarea pendiente para antes de que sea inteligente

Una cosa es entender que la IA no es inteligente, en la connotación humana de la palabra, otra es que la IA no necesite análisis y parámetros éticos mínimos a cumplir, especialmente dada la cantidad de datos a su disposición para entrenamiento. De ahí que sea preocupante que sistemáticamente los gigantes tecnológicos estén dando menos prioridad a la evaluación ética para priorizar el desarrollo. 

Los primeros principios éticos fueron sugeridos años antes de que la IA generativa llegara, pero poca atención han recibido para ser actualizados a la misma velocidad a la que empresas intentan ponerse al corriente con GPT o Midjourney. La IA no es inteligente todavía, así que la atención de los gigantes está en conseguir que así sea. Por ahora, la ética y la regulación solo parece importarle a la UNESCO

Comentarios cerrados
Inicio