/ domingo 21 de mayo de 2023

¿Los programas de IA pueden “alucinar”? Al parecer sí

Acorde a una investigación, los programas de inteligencia artificial, como el popular ChatGPT, pueden tener 'ciertas experiencias'. Descubre por qué sucede este fenómeno

A menudo, cuando se piensa en programas de inteligencia artificial (IA), se tiene la idea de que son herramientas perfectas, las cuales recopilan, analizan y transmiten información.

Aunque en efecto una IA cuenta con capacidades intelectuales superiores a las de un ser humano, eso no quiere decir que no se equivoque. De hecho, puede llegar a “alucinar”.

➡️ También te puede interesar: Seis de cada 10 mexicanos usan la IA

¿Cómo alucina una inteligencia artificial?

Acorde a la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (Comest, por sus siglas en inglés), miembro de la Unesco, la inteligencia artificial equivale a una máquina con la capacidad de imitar la mente humana, siendo capaz de percibir, aprender, razonar, resolver, interactuar e incluso crear contenido.

Un programa de inteligencia artificial muy popular en la actualidad es el ChatGPT de la empresa OpenAI, el cual es usado para múltiples finalidades, desde escribir trabajos académicos y empresariales, hasta consultar información, traducir textos o ser una herramienta didáctica en los salones de clases.

Sin embargo, de acuerdo al artículo de la BBC “Qué es la "alucinación" de la inteligencia artificial y por qué es una de las fallas potencialmente más peligrosas de esta tecnología”, varios reporteros del New York Times encontraron errores en las respuestas del ChatGPT y la empresa OpenAI ha confirmado que su programa no es “perfecto”.

Aunque es creada por el hombre, la inteligencia artificial razona de forma distinta | Pixabay


Una inteligencia artificial “alucina” cuando ofrece datos incoherentes, sesgados o falsos como verdaderos. No solo eso, los programas de esta clase también pueden emitir prejuicios sociales y difundir información contradictoria.

➡️ También te puede interesar: Unión Europea da primer paso para regular la Inteligencia Artificial con nueva ley

Las máquinas son creadas por los hombres

Quizás la principal razón por la cual un programa de inteligencia artificial no es perfecto es debido a que las mentes que lo crearon tampoco lo son.

New York Times explica que la función principal de una IA es analizar información a gran escala proveniente de buscadores predeterminados. El problema es que los datos recopilados pueden ser falsos y el programa los puede replicar como verdaderos.

Cuando una inteligencia artificial comienza a “alucinar” presenta información equivocada y fraudulenta, pero de manera organizada, coherente e inclusive convincente. Por tanto, puede fomentar la propagación de noticias falsas y representar, a largo plazo, un retroceso en el campo de diversas disciplinas, tanto a nivel científico como filosófico.

¿Es posible que el ChatGPT se equivoque?

Le preguntamos al ChatGPT si era posible que cometiera errores, a lo cual nos respondió lo siguiente:

“Como modelo de lenguaje basado en inteligencia artificial, mi conocimiento se basa en el análisis de grandes cantidades de datos y en la comprensión de patrones lingüísticos.

➡️ También te puede interesar: Familia de Michael Schumacher denunciará a revista deportiva por falsa entrevista con IA

Si bien hago todo lo posible para proporcionar información precisa y confiable, es posible que ocasionalmente pueda proporcionar información incorrecta o desactualizada, especialmente si mi base de conocimientos no incluye información más reciente o si la pregunta es ambigua o mal formulada.

Es importante tener en cuenta que, como modelo de lenguaje, no tengo la capacidad de comprender el mundo de la misma manera que lo hacen los seres humanos, ni puedo tener experiencias o conocimientos más allá de los que se han registrado en los datos que se me han proporcionado.

Por lo tanto, siempre es recomendable verificar la información que proporciono con otras fuentes y ejercer el juicio crítico al evaluar cualquier información que se encuentre en línea.”

En conclusión, los programas de inteligencia artificial (IA) sí pueden alucinar, es decir, son propensos a cometer errores en la información que presentan al público.

Recibe las noticias de El Sol de Tampico directo en tu WhatsApp, suscríbete aquí

Aunque son capaces de realizar complicadas operaciones matemáticas en cuestión de segundos, nada nos garantiza que el resultado arrojado por el programa sea correcto siempre y todas las veces.

A menudo, cuando se piensa en programas de inteligencia artificial (IA), se tiene la idea de que son herramientas perfectas, las cuales recopilan, analizan y transmiten información.

Aunque en efecto una IA cuenta con capacidades intelectuales superiores a las de un ser humano, eso no quiere decir que no se equivoque. De hecho, puede llegar a “alucinar”.

➡️ También te puede interesar: Seis de cada 10 mexicanos usan la IA

¿Cómo alucina una inteligencia artificial?

Acorde a la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (Comest, por sus siglas en inglés), miembro de la Unesco, la inteligencia artificial equivale a una máquina con la capacidad de imitar la mente humana, siendo capaz de percibir, aprender, razonar, resolver, interactuar e incluso crear contenido.

Un programa de inteligencia artificial muy popular en la actualidad es el ChatGPT de la empresa OpenAI, el cual es usado para múltiples finalidades, desde escribir trabajos académicos y empresariales, hasta consultar información, traducir textos o ser una herramienta didáctica en los salones de clases.

Sin embargo, de acuerdo al artículo de la BBC “Qué es la "alucinación" de la inteligencia artificial y por qué es una de las fallas potencialmente más peligrosas de esta tecnología”, varios reporteros del New York Times encontraron errores en las respuestas del ChatGPT y la empresa OpenAI ha confirmado que su programa no es “perfecto”.

Aunque es creada por el hombre, la inteligencia artificial razona de forma distinta | Pixabay


Una inteligencia artificial “alucina” cuando ofrece datos incoherentes, sesgados o falsos como verdaderos. No solo eso, los programas de esta clase también pueden emitir prejuicios sociales y difundir información contradictoria.

➡️ También te puede interesar: Unión Europea da primer paso para regular la Inteligencia Artificial con nueva ley

Las máquinas son creadas por los hombres

Quizás la principal razón por la cual un programa de inteligencia artificial no es perfecto es debido a que las mentes que lo crearon tampoco lo son.

New York Times explica que la función principal de una IA es analizar información a gran escala proveniente de buscadores predeterminados. El problema es que los datos recopilados pueden ser falsos y el programa los puede replicar como verdaderos.

Cuando una inteligencia artificial comienza a “alucinar” presenta información equivocada y fraudulenta, pero de manera organizada, coherente e inclusive convincente. Por tanto, puede fomentar la propagación de noticias falsas y representar, a largo plazo, un retroceso en el campo de diversas disciplinas, tanto a nivel científico como filosófico.

¿Es posible que el ChatGPT se equivoque?

Le preguntamos al ChatGPT si era posible que cometiera errores, a lo cual nos respondió lo siguiente:

“Como modelo de lenguaje basado en inteligencia artificial, mi conocimiento se basa en el análisis de grandes cantidades de datos y en la comprensión de patrones lingüísticos.

➡️ También te puede interesar: Familia de Michael Schumacher denunciará a revista deportiva por falsa entrevista con IA

Si bien hago todo lo posible para proporcionar información precisa y confiable, es posible que ocasionalmente pueda proporcionar información incorrecta o desactualizada, especialmente si mi base de conocimientos no incluye información más reciente o si la pregunta es ambigua o mal formulada.

Es importante tener en cuenta que, como modelo de lenguaje, no tengo la capacidad de comprender el mundo de la misma manera que lo hacen los seres humanos, ni puedo tener experiencias o conocimientos más allá de los que se han registrado en los datos que se me han proporcionado.

Por lo tanto, siempre es recomendable verificar la información que proporciono con otras fuentes y ejercer el juicio crítico al evaluar cualquier información que se encuentre en línea.”

En conclusión, los programas de inteligencia artificial (IA) sí pueden alucinar, es decir, son propensos a cometer errores en la información que presentan al público.

Recibe las noticias de El Sol de Tampico directo en tu WhatsApp, suscríbete aquí

Aunque son capaces de realizar complicadas operaciones matemáticas en cuestión de segundos, nada nos garantiza que el resultado arrojado por el programa sea correcto siempre y todas las veces.

Policiaca

Encuentran a hombre muerto en la laguna Nuevo Madero de Altamira

Los habitantes del sector avisaron a los cuerpos de emergencia, donde incluso fueron apoyados por el Ejército Mexicano

Local

Se preparan pescadores por posible extensión de veda de camarón en Tamaulipas

Temen que la veda se extienda hasta por seis meses lo que afectaría severamente la economía del sector

Local

Temen brote de dengue en Tamaulipas: señalan que el riesgo viene de Veracruz

El constante flujo de personas del norte de Veracruz al sur de Tamaulipas puede elevar los casos en esta zona

Finanzas

¿Quiénes son los nuevos propietarios de Galerías Altama? Desde marzo se concretó su compra

La plaza ha evolucionado y ahora alberga nuevas marcas al interior del complejo comercial

Elecciones 2024

Nos toca decidir esa alineación que por años no se ha dado en Tampico: Mónica Villarreal

Como parte de sus actividades, la candidata a la alcaldía del puerto jaibo recorrió las colonias Santo Niño y Obrera

Elecciones 2024

Terminaremos el proyecto de embellecer la Laguna del Carpintero: Rosa González

Habrá continuidad en las obras de pavimentación, asegura Rosa González en su visita a la colonia Morelos