La IA no es confiable, así lo indicó su creador

El CEO de OpenAI pide no idealizar a ChatGPT y recuerda que su utilidad no reemplaza la necesidad del pensamiento crítico y la verificación humana.

La inteligencia artificial (IA) se ha convertido en parte del día a día para millones de personas en el mundo. Herramientas como ChatGPT asisten en la redacción de correos, resolución de tareas académicas, generación de ideas y hasta toma de decisiones. Pero mientras su popularidad crece, también lo hacen las voces que piden cautela. Una de ellas es la del propio Sam Altman, CEO de OpenAI.

Durante una entrevista reciente en el pódcast oficial de la empresa, Altman fue enfático: los usuarios no deberían depositar una confianza ciega en la IA. “La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”, advirtió.

El término “alucinación” en el contexto de la inteligencia artificial no tiene que ver con visiones o delirios humanos, sino con errores de generación. Se refiere a cuando un modelo como ChatGPT produce información incorrecta o inventada, pero presentada de forma tan coherente y convincente que puede parecer verdadera. Esto se convierte en un riesgo cuando los usuarios toman estos datos como hechos sin verificarlos.

Altman explicó que estas limitaciones siguen presentes incluso en los modelos más avanzados. Por eso, recomendó que el contenido generado por IA siempre sea contrastado con fuentes oficiales o expertos, y que se evite establecer una relación emocional o personal con la tecnología, como si se tratara de un asistente humano.

En un contexto donde cada vez más personas recurren a la IA para temas delicados como diagnósticos médicos, asesoría legal o decisiones financieras, la advertencia del CEO de OpenAI cobra especial relevancia. El problema no solo son los errores, sino la confianza excesiva con la que se pueden asumir como ciertos.

“La IA es útil, pero no infalible”, insistió Altman. “Debe ser vista como una herramienta, no como una fuente absoluta de verdad”.

Uso responsable:

Entre los consejos que compartió el CEO de OpenAI para evitar malos usos de la tecnología están:

  • Verificar siempre la información con fuentes confiables.

  • No sustituir el juicio profesional o la investigación con lo que diga la IA.

  • Evitar compartir datos personales o sensibles en las conversaciones.

  • Recordar que la IA puede sonar convincente, pero no garantiza precisión.

Lejos de desalentar su uso, Altman apuesta por una relación más crítica y ética con estas herramientas. “La IA es poderosa, pero no debe reemplazar el pensamiento crítico ni la responsabilidad individual”, concluyó.

Compártelo