18.9 C
Ayacucho
jueves, julio 18, 2024
InicioCOLUMNISTAS¿La inteligencia artificial puede llevar a la extinción de la humanidad? |...

¿La inteligencia artificial puede llevar a la extinción de la humanidad? | Opinión

Mario Zenitagoya | Otra Mirada
[email protected]

La inteligencia artificial podría llevar a la extinción de la humanidad, advirtió en un documento un grupo de expertos entre los que están los máximos responsables de Open AI y Google Deepmind.

“Mitigar el riesgo de extinción a manos de la IA debería ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear”, se puede leer en una declaración publicada en la página de internet del Centro para la Seguridad de la IA.

También firman otros líderes en el desarrollo de la nueva tecnología como Dario Amodei, de Anthropic, y el doctor Geoffrey Hinton, quien ya había advertido sobre los riesgos de un sistema superinteligente.

Desde que se lanzó a finales de noviembre 2022, ChatGPT, el chatbot que usa inteligencia artificial (IA) para responder preguntas o generar textos a pedido de usuarios, se ha convertido en la aplicación de internet con el crecimiento más rápido de la historia.

En apenas dos meses llegó a tener 100 millones de usuarios activos. A la popular app TikTok le tardó nueve meses alcanzar ese hito. Y a Instagram dos años y medio, según datos de la empresa de monitoreo tecnológico Sensor Town.

La Inteligencia Artificial tiene tres etapas: Inteligencia artificial estrecha (ANI), Inteligencia artificial general (AGI) y la Súper Inteligencia Artificial (ASI), muchos piensan que la tercera puede ser fatal.

¿Y de que se trata esta SÚPER INTELIGENCIA ARTIFICIAL (ASI)? La preocupación de científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarrollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.

El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como “un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales”.

La teoría es que cuando una máquina logre tener una inteligencia a la par con la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI.

“Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo. El tema con la AGI es que es escalable de inmediato”, señala Gutiérrez.

Si bien existe mucho debate sobre si una máquina realmente puede adquirir el tipo de inteligencia amplia que tiene un ser humano -en especial en lo que hace a la inteligencia emocional-, es una de las cosas que más preocupa a quienes creen que estamos cerca de lograr la AGI.

Recientemente, el llamado “padrino de la inteligencia artificial” Geoffrey Hinton, pionero en la investigación de redes neuronales y aprendizaje profundo que permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó en una entrevista con la BBC que podríamos estar cerca de ese hito.

Extinción o inmortalidad

Existen, en reglas generales, dos campos de pensamiento con relación a la ASI: están los que creen que esta superinteligencia será beneficiosa para la humanidad y los que creen todo lo contrario.

Entre estos últimos estaba el famoso físico británico Stephen Hawking, quien creía que las máquinas súper inteligentes representaban una amenaza para nuestra existencia.

El distinguido físico británico Stephen Hawking creía que la IA súper inteligente podía llevar al “fin de la raza humana”.

“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”, le dijo a la BBC en 2014, cuatro años antes de morir.

Una máquina con este nivel de inteligencia “despegaría por sí sola y se rediseñaría a un ritmo cada vez mayor”, señaló.

“Los humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían superados”, predijo.

Sin embargo, en el bando opuesto creen todo lo contrario.

Diario Jornada
Diario Jornadahttps://jornada.com.pe
Somos el diario judicial de la región de Ayacucho, brindamos información plural, verídica y de calidad sobre los acontecimientos más importantes de la región. Con un equipo de periodistas capacitados y comprometidos con la ética profesional, ofrecemos noticias, opinión y análisis en formato impreso y digital.
ARTÍCULOS RELACIONADOS

MÁS POPULAR