/ sábado 1 de abril de 2023

Expertos en Inteligencia Artificial critican campaña de Musk: es puro alarmismo y exageración

Los críticos acusaron que la organización detrás de la carta da prioridad a escenarios apocalípticos imaginarios

Cuatro expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta, -firmada conjuntamente por Elon Musk, en la que se exigía una pausa urgente en la investigación.

La carta, fechada el 22 de marzo y con más de 1.800 firmas hasta el viernes, pedía una pausa de seis meses en el desarrollo de sistemas "más potentes" que el nuevo GPT-4 de OpenAI, respaldado por Microsoft MSFT.O, que puede mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.

Te puede interesar: Elon Musk lidera campaña para detener la Inteligencia Artificial: "es un riesgo para la humanidad"

Desde el lanzamiento el año pasado de ChatGPT, el predecesor de GPT-4, las empresas rivales se han apresurado a lanzar productos similares.

La carta abierta afirma que los sistemas de IA con "inteligencia humana competitiva" plantean profundos riesgos para la humanidad, y cita 12 investigaciones de expertos, entre ellos académicos universitarios y empleados y exempleados de OpenAI, Google GOOGL.O y su filial DeepMind.

Grupos de la sociedad civil de Estados Unidos y la UE han presionado desde entonces a los legisladores para que frenen la investigación de OpenAI. OpenAI no respondió inmediatamente a las peticiones de comentarios.

Los críticos han acusado al Future of Life Institute (FLI), la organización que está detrás de la carta y que está financiada principalmente por la Musk Foundation, de dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA, como los prejuicios racistas o sexistas.

Entre las investigaciones citadas se encuentra "On the Dangers of Stochastic Parrots" (Sobre los peligros de los loros estocásticos), un artículo del que es coautora Margaret Mitchell, que anteriormente supervisó la investigación ética de la IA en Google.

Mitchell, ahora jefa de ética científica en la empresa de IA Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué se consideraba "más potente que GPT4".

"Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI", dijo. "Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos".

Mitchell y sus coautores -Timnit Gebru, Emily M. Bender y Angelina McMillan-Major- publicaron posteriormente una respuesta a la carta, en la que acusaban a sus autores de "alarmismo y exageración de la IA".

"Es peligroso distraernos con una utopía o un apocalipsis de la IA que promete un futuro 'próspero' o 'potencialmente catastrófico'", escribieron. "La responsabilidad no recae propiamente en los artefactos, sino en sus constructores".

El presidente de FLI, Max Tegmark, dijo a Reuters que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI.

"Es muy hilarante. He visto a gente decir: 'Elon Musk está tratando de frenar a la competencia'", dijo, añadiendo que Musk no tuvo ningún papel en la redacción de la carta. "No se trata de una empresa".

Riesgos ahora

Shiri Dori-Hacohen, profesora adjunta de la Universidad de Connecticut, dijo a Reuters que estaba de acuerdo con algunos puntos de la carta, pero discrepó con la forma en que se citaba su trabajo.

El año pasado, Dori-Hacohen fue coautora de un estudio en el que sostenía que el uso generalizado de la IA ya planteaba graves riesgos. Su investigación sostenía que el uso actual de sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.

Según ella, "no es necesario que la IA alcance el nivel de inteligencia humana para agravar esos riesgos". "Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tipo de atención al nivel de Hollywood".

Consultada sobre las críticas, Tegmark, de FLI, dijo que tanto los riesgos a corto como a largo plazo de la IA deberían tomarse en serio. "Si citamos a alguien, sólo significa que afirmamos que respalda esa frase. No significa que estén respaldando la letra, o que respaldemos todo lo que piensan", aseguró a Reuters.

Dan Hendrycks, director del Center for AI Safety, con sede en California, también citado en la carta, defendió su contenido y dijo a Reuters que era sensato tener en cuenta los casos de cisne negro, aquellos que parecen improbables, pero que tendrían consecuencias devastadoras.

La carta abierta también advertía de que las herramientas de IA generativa podrían utilizarse para inundar Internet de "propaganda y falsedades".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Dori-Hacohen dijo que era "bastante enriquecedor" que Musk la hubiera firmado, citando un aumento de la desinformación en Twitter tras su adquisición de la plataforma, documentado por el grupo de la sociedad civil Common Cause y otros.

Cuatro expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta, -firmada conjuntamente por Elon Musk, en la que se exigía una pausa urgente en la investigación.

La carta, fechada el 22 de marzo y con más de 1.800 firmas hasta el viernes, pedía una pausa de seis meses en el desarrollo de sistemas "más potentes" que el nuevo GPT-4 de OpenAI, respaldado por Microsoft MSFT.O, que puede mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.

Te puede interesar: Elon Musk lidera campaña para detener la Inteligencia Artificial: "es un riesgo para la humanidad"

Desde el lanzamiento el año pasado de ChatGPT, el predecesor de GPT-4, las empresas rivales se han apresurado a lanzar productos similares.

La carta abierta afirma que los sistemas de IA con "inteligencia humana competitiva" plantean profundos riesgos para la humanidad, y cita 12 investigaciones de expertos, entre ellos académicos universitarios y empleados y exempleados de OpenAI, Google GOOGL.O y su filial DeepMind.

Grupos de la sociedad civil de Estados Unidos y la UE han presionado desde entonces a los legisladores para que frenen la investigación de OpenAI. OpenAI no respondió inmediatamente a las peticiones de comentarios.

Los críticos han acusado al Future of Life Institute (FLI), la organización que está detrás de la carta y que está financiada principalmente por la Musk Foundation, de dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA, como los prejuicios racistas o sexistas.

Entre las investigaciones citadas se encuentra "On the Dangers of Stochastic Parrots" (Sobre los peligros de los loros estocásticos), un artículo del que es coautora Margaret Mitchell, que anteriormente supervisó la investigación ética de la IA en Google.

Mitchell, ahora jefa de ética científica en la empresa de IA Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué se consideraba "más potente que GPT4".

"Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI", dijo. "Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos".

Mitchell y sus coautores -Timnit Gebru, Emily M. Bender y Angelina McMillan-Major- publicaron posteriormente una respuesta a la carta, en la que acusaban a sus autores de "alarmismo y exageración de la IA".

"Es peligroso distraernos con una utopía o un apocalipsis de la IA que promete un futuro 'próspero' o 'potencialmente catastrófico'", escribieron. "La responsabilidad no recae propiamente en los artefactos, sino en sus constructores".

El presidente de FLI, Max Tegmark, dijo a Reuters que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI.

"Es muy hilarante. He visto a gente decir: 'Elon Musk está tratando de frenar a la competencia'", dijo, añadiendo que Musk no tuvo ningún papel en la redacción de la carta. "No se trata de una empresa".

Riesgos ahora

Shiri Dori-Hacohen, profesora adjunta de la Universidad de Connecticut, dijo a Reuters que estaba de acuerdo con algunos puntos de la carta, pero discrepó con la forma en que se citaba su trabajo.

El año pasado, Dori-Hacohen fue coautora de un estudio en el que sostenía que el uso generalizado de la IA ya planteaba graves riesgos. Su investigación sostenía que el uso actual de sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.

Según ella, "no es necesario que la IA alcance el nivel de inteligencia humana para agravar esos riesgos". "Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tipo de atención al nivel de Hollywood".

Consultada sobre las críticas, Tegmark, de FLI, dijo que tanto los riesgos a corto como a largo plazo de la IA deberían tomarse en serio. "Si citamos a alguien, sólo significa que afirmamos que respalda esa frase. No significa que estén respaldando la letra, o que respaldemos todo lo que piensan", aseguró a Reuters.

Dan Hendrycks, director del Center for AI Safety, con sede en California, también citado en la carta, defendió su contenido y dijo a Reuters que era sensato tener en cuenta los casos de cisne negro, aquellos que parecen improbables, pero que tendrían consecuencias devastadoras.

La carta abierta también advertía de que las herramientas de IA generativa podrían utilizarse para inundar Internet de "propaganda y falsedades".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Dori-Hacohen dijo que era "bastante enriquecedor" que Musk la hubiera firmado, citando un aumento de la desinformación en Twitter tras su adquisición de la plataforma, documentado por el grupo de la sociedad civil Common Cause y otros.

Elecciones 2024

Voto extranjero: mexicano en Canadá hace "unboxing" del paquete electoral

Los mexicanos en el extranjero que solicitaron ejercer su voto ya empezaron a recibir los paquetes electorales

Policía

Matan a excolaborador del alcalde con licencia en Tlalnepantla afuera de centro comercial

Sujetos a bordo de una moto abrieron fuego contra el exfuncionario que trabajó con Tony Rodríguez, alcalde con licencia y candidato a la presidencia municipal de Tlalnepantla

Metrópoli

¿Robo masivo en Río Mixcoac? SSC revela lo que ocurrió en el túnel

En redes sociales se reportó un presunto robo masivo en un túnel en la avenida Río Mixcoac

Mundo

Irak penaliza relaciones homosexuales con 15 años de cárcel

También impone entre uno y tres años de cárcel a quien cambie su "sexo biológico"

Política

SCJN podría avalar reformas a Ley de Hidrocarburos

Esta reforma propone intensificar los requisitos necesarios para que las empresas privadas puedan obtener y mantener permisos en el sector energético

Mundo

Detienen a productor de Reuters por colaborar en las redes sociales de Navalny

En Rusia, las autoridades siguen deteniendo a comunicadores que intentan informar sobre el actuar del gobierno de Putin en la guerra con Ucrania