Tras una investigación, un equipo conformado por investigadores de la Universidad de Cornell, las universidades de Washington y Waterloo y el instituto AI2, revelaron que modelos de inteligencia artificial como GPT - 4 y Llama 3 de Meta, son propensas a "alucinar", en otras palabras generar información falsa o errónea.
Pero, ¿qué definimos como "alucinar"? Parecido a como experimentan las alucinaciones los humanos o animales, la IA puede malinterpretar la información, lo que ocasiona que genere respuestas sin una base real o carente de sentido, Esto puede ser ocasionado por falta de precisión en la data de entrenamiento o un algoritmo demasiado complejo, entre otras cosas.
Para el estudio, los investigadores escogieron una selecta lista de preguntas, que incluían temas como geografía, eventos históricos y cultura, procurando que sea información no disponible en Wikipedia, ya que se ha demostrado que es una de las fuentes que más usan estos modelos de IA.
Los resultados fueron desalentadores, ya que demostraron que la IA generacional solo lograba ser precisa el 34% del tiempo. Esto nos hace entender que aún nos queda mucho camino por recorrer para poder aplicar eficazmente la IA en áreas tan delicadas como la salud, donde un diagnóstico erróneo podría costar vidas. Lo que recalca también la importancia del factor humano a la hora de usar esta nueva tecnología.
Fuente: Robotitus
Comments