banner
Hogar / Noticias / ¿Cuáles son las preocupaciones en torno a la IA? ¿Algunas de las advertencias son "tonterías"?
Noticias

¿Cuáles son las preocupaciones en torno a la IA? ¿Algunas de las advertencias son "tonterías"?

Aug 21, 2023Aug 21, 2023

Un experto le dice a Sky News que es importante "prestar atención" a las posibilidades de daño de la IA y afirma que "no está claro" que los gobiernos sepan cómo regular la tecnología de manera segura.

Reportero de noticias @OliveLineham

Martes 30 mayo 2023 20:08, Reino Unido

El rápido ascenso de la inteligencia artificial (IA) no solo está generando preocupación entre las sociedades y los legisladores, sino también entre algunos líderes tecnológicos que están en el centro de su desarrollo.

Algunos expertos, incluido el'padrino de la IA' Geoffrey Hinton, han advertido que la IA plantea un problema similarRiesgo de extinción humana como pandemias y guerra nuclear..

Desde el jefe de la empresa detrás de ChatGPT hasta el jefe del laboratorio de IA de Google, más de 350 personas han dicho que mitigar el "riesgo de extinción de la IA" debería ser una "prioridad global".

Si bien la IA puede realizar tareas que salvan vidas, como algoritmos que analizan imágenes médicas como rayos X, escaneos y ultrasonidos, sus capacidades de rápido crecimiento y su uso cada vez más generalizado han generado preocupación.

Echamos un vistazo a algunos de los principales y a por qué los críticos dicen que algunos de esos temores van demasiado lejos.

Desinformación e imágenes alteradas por IA

Las aplicaciones de inteligencia artificial se han vuelto virales en los sitios de redes sociales, donde los usuarios publican imágenes falsas de celebridades y políticos, y los estudiantes usan ChatGPT y otros "modelos de aprendizaje de idiomas" para generar ensayos de grado universitario.

UnogeneralLa preocupación en torno a la IA y su desarrollo es la información errónea generada por la IA y cómo puede causar confusión en línea.

El científico británico Stuart Russell ha dicho que una de las mayores preocupaciones era la desinformación y los llamados deepfakes.

Se trata de vídeos o fotografías de una persona en los que su rostro o cuerpo ha sido alterado digitalmente para que parezca otra persona, normalmente utilizados de forma maliciosa o para difundir información falsa.

Utilice el navegador Chrome para obtener un reproductor de vídeo más accesible

El profesor Russell dijo que aunque la desinformación ha existido durante mucho tiempo con fines de "propaganda", la diferencia ahora es que, usando a Sophy Ridge como ejemplo, podría pedirle al chatbot en línea GPT-4 que intente "manipularla" para que pueda "Menos apoyo a Ucrania".

La semana pasada, una imagen falsa quepareció mostrar una explosión cerca del PentágonoSe volvió viral brevemente en las redes sociales y dejó a los verificadores de datos y al servicio de bomberos local luchando por contrarrestar el reclamo.

Parecía que la imagen, que pretendía mostrar una gran nube de humo negro junto a la sede del Departamento de Defensa de EE. UU., fue creada utilizando tecnología de inteligencia artificial.

Se publicó por primera vez en Twitter y rápidamente lo recircularon cuentas de noticias verificadas, pero falsas. Pero los verificadores de hechos pronto demostraron que no hubo ninguna explosión en el Pentágono.

Pero se están tomando algunas medidas. En noviembre, el gobierno confirmó que compartir "deepfakes" pornográficos sin consentimiento se considerará un delito según la nueva legislación.

Superando la inteligencia humana

Los sistemas de IA implican la simulación de procesos de inteligencia humana mediante máquinas, pero ¿existe el riesgo de que se desarrollen hasta el punto de exceder el control humano?

El profesor Andrew Briggs de la Universidad de Oxford, dijo a Sky News que existe el temor de que a medida que las máquinas se vuelvan más poderosas "podría llegar" el día en que su capacidad supere a la de los humanos.

Utilice el navegador Chrome para obtener un reproductor de vídeo más accesible

Dijo: "Por el momento, sea lo que sea que la máquina esté programada para optimizar, lo eligen los humanos y puede ser elegido para hacer daño o para bien. En este momento son los humanos quienes lo deciden".

"El temor es que a medida que las máquinas se vuelven cada vez más inteligentes y más poderosas, podría llegar el día en que la capacidad supere ampliamente a la de los humanos y los humanos pierdan la capacidad de mantener el control de lo que la máquina busca optimizar".

Leer más:¿Qué es GPT-4 y cómo se mejora?

Dijo que por eso es importante "prestar atención" a las posibilidades de daño y añadió que "no está claro para mí ni para ninguno de nosotros que los gobiernos realmente sepan cómo regular esto de una manera que sea segura".

Pero también existen otras preocupaciones en torno a la IA, incluido su impacto en la educación, conExpertos plantean advertencias sobre los ensayos.y empleos.

Utilice el navegador Chrome para obtener un reproductor de vídeo más accesible

Sólo la última advertencia

Entre los firmantes de la declaración del Centro para la Seguridad de la IA se encontraban Hinton y Yoshua Bengio, dos de los tres llamados "padrinos de la IA" que recibieron el Premio Turing 2018 por su trabajo en aprendizaje profundo.

Pero la advertencia de hoy no es la primera vez que vemos a expertos en tecnología expresar preocupaciones sobre el desarrollo de la IA.

En marzo, ElonMusk y un grupo de expertos en inteligencia artificialPidió una pausa en el entrenamiento de potentes sistemas de IA debido a los riesgos potenciales para la sociedad y la humanidad.

La carta, publicada por la organización sin fines de lucro Future of Life Institute y firmada por más de 1.000 personas, advertía sobre los riesgos potenciales para la sociedad y la civilización derivados de los sistemas de IA competitivos entre humanos en forma de perturbaciones económicas y políticas.

Pidió detener durante seis meses la "peligrosa carrera" para desarrollar sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI.

A principios de esta semana,Rishi Sunak también se reunió con el director ejecutivo de Google para discutir "lograr el equilibrio adecuado" entre la regulación de la IA y la innovación. Downing Street dijo que el primer ministro habló con Sundar Pichai sobre la importancia de garantizar que existan las "barandillas" adecuadas para garantizar la seguridad tecnológica.

Utilice el navegador Chrome para obtener un reproductor de vídeo más accesible

¿Son las advertencias 'tonterías'?

Aunque algunos expertos están de acuerdo con la declaración del Centro para la Seguridad de la IA, otros en el campo han calificado la noción de "acabar con la civilización humana" como "una tontería".

Pedro Domingos, profesor de informática e ingeniería en la Universidad de Washington, tuiteó: "Recordatorio: la mayoría de los investigadores de IA piensan que la noción de que la IA acabará con la civilización humana es una tontería".

Hinton respondió preguntando cuál es el plan de Domingos para garantizar que la IA "no nos manipule para darle el control".

El profesor respondió: "Ya estás siendo manipulado todos los días por personas que ni siquiera son tan inteligentes como tú, pero de alguna manera todavía estás bien. Entonces, ¿por qué tanta preocupación por la IA en particular?"

'padrino de la IA' Geoffrey HintonRiesgo de extinción humana como pandemias y guerra nuclear.Desinformación e imágenes alteradas por IApareció mostrar una explosión cerca del PentágonoSuperando la inteligencia humanaLeer más:¿Qué es GPT-4 y cómo se mejora?Expertos plantean advertencias sobre los ensayos.Sólo la última advertenciaMusk y un grupo de expertos en inteligencia artificialRishi Sunak también se reunió con el director ejecutivo de Google¿Son las advertencias 'tonterías'?