Connect with us

Tecnología

«¿Debemos arriesgarnos a perder el control de la civilización?»: expertos tecnológicos piden pausar el desarrollo de IA

La inteligencia artificial aspira a transformar el mundo, pero muchos gurús tecnológicos están preocupados por su rápido desarrollo. Más de mil ejecutivos de grandes empresas, humanistas y desarrolladores, entre los que figuran nombres como Elon Musk o Steve Wozniak, cofundador de Apple, han firmado una carta en la que solicitan a los principales laboratorios volcados en el desarrollo de la IA que paren sus trabajos en el entrenamiento de sus futuras soluciones, más potentes que las que conocemos actualmente.

¿La razón? La amenaza de que, potencialmente, las máquinas apoyadas en inteligencia artificial «inunden nuestros canales de información falsa y propaganda» y terminen sustituyendo a los seres humanos en el mundo laboral.

«Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato, durante al menos 6 meses, el entrenamiento de los sistemas de IA más potentes que GPT-4 (el nuevo modelo empleado por ChatGPT o el chatbot inteligente del buscador Bing). Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria«, se puede leer en la misiva.

Los firmantes se muestran preocupados, incluso, por la posibilidad de que, en el futuro, las «mentes no humanas» puedan «superarnos en número, ser más inteligentes y reemplazarnos». También apuntan que el humano se arriesga a «perder el control de nuestra civilización».

«Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables», se destaca. Asimismo, se pide la regulación de la tecnología y la creación de nuevas nuevas autoridades públicas encargadas de controlar los desarrollos.

Buscando la regulación

La llegada de ChatGPT, y su enorme éxito, ha provocado que muchas tecnológicas, como Google, Microsoft, Meta o la china Baidu se hayan adentrado en una carrera que tiene como objetivo poner en manos de los usuarios el mayor número posible de herramientas basadas en inteligencia artificial.

Advertisement

OpenAI, laboratorio detrás del desarrollo de la popular máquina de responder preguntas, anunció recientemente el lanzamiento de GPT-4, el modelo generador de lenguaje e imágenes más potente que existe. Una herramienta que, a pesar de las mejoras, sigue cometiendo errores y, en malas manos, puede ser explotada en contra de los usuarios.

En la carta, se señala que la moratoria en el desarrollo de nuevos sistemas debería ser aprovechada por los laboratorios «para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes».

Actualmente, la Unión Europea trabaja en la aprobación de una nueva regulación sobre inteligencia artificial en la que se espera que se tenga en cuenta las nuevas herramientas como ChatGPT, según informó recientemente la agencia ‘Reuters‘.

Muchas empresas de ciberseguridad, y también Europol, han alertado durante las últimas semanas sobre el potencial que pueden tener las plataformas de IA, especialmente si siguen desarrollándose, para ser utilizadas con todo tipo de fines maliciosos: desde la creación de ciberestafas y timos de todo tipo hasta el desarrollo de campañas de desinformación.

Fuente

Advertisement
Advertisement

Nacional

Más

Populares