Connect with us

Tecnología

¿Acabará prohibiéndose ChatGPT?

El 21 de abril de 2021, la Unión Europea (UE) puso sobre la mesa una medida pionera para la regulación de la Inteligencia Artificial (IA). Después de tres años de consultas, Bruselas estableció la categorización de esos sistemas según su riesgo y la prohibición cuando este sea “inadmisible”, véase la vigilancia masiva, el reconocimiento facial o el crédito social que usa China. Sin embargo, la acelerada irrupción de modelos generativos como el popular ChatGPT ha torpedeado la propuesta original, forzando a los legisladores europeos a estudiar vías para poner la IA bajo control.

En poco más de cuatro meses, esta tecnología ha logrado expandirse de forma vertiginosa a cada vez más aspectos de nuestra vida, colándose en las escuelas y en múltiples empleos. Su capacidad por simular conversaciones humanas y por crear imágenes ficticias que parecen cada vez más reales ha fascinado a muchos, pero también ha despertado temor entre los expertos por su potencial impacto en aspectos como el mercado laboral, los sesgos o la desinformación. “Lo que se ha hecho con ChatGPT recuerda a Tesla: sacar sus coches al mercado y corregirlos mientras la gente conduce. Por eso tienen más accidentes que los demás”, explica Lorena Jaume-Palasí, experta en IA, filosofía del derecho y ética de la tecnología.

La velocidad de esta eclosión ha obligado a la UE a ralentizar la tramitación de la ley para añadir nuevos mecanismos de control. El Parlamento Europeo la votará a finales de abril, pero de ser aprobada podría tardar hasta dos años en entrar en vigor. Aunque no está claro qué aspecto final tendrá, los dos diputados que encabezan la legislación han propuesto categorizar la IA generativa como de “alto riesgo”, exigiendo a las empresas requerimientos de gestión del riesgo y de transparencia más estrictos. Una investigación reciente de la oenegé Corporate Europe Observatory señala que Microsoft y Google –los gigantes tecnológicos que encabezan la carrera empresarial por la IA– están presionando con insistencia a Bruselas para que no se imponga esa etiqueta de riesgo a sus servicios. Por otro lado, el comisario europeo de Mercado Interior y Servicios, Thierry Breton, aseguró el lunes que todos los contenidos que se generen con IA “tendrán que estar marcados”. “Es un tema extremadamente importante”, apuntó.

“ChatGPT ha hecho como Tesla: sacar sus coches al mercado y corregirlos mientras la gente conduce. Por eso tienen más accidentes que los demás”

Lorena Jaume-Palasí, experta en IA, filosofía del derecho y ética de la tecnología

Advertisement

¿Prohibición en Europa?

Italia ha sido el primer país del bloque europeo que ha optado por bloquear el acceso de sus ciudadanos a ChatGPT. El pasado 31 de marzo, la agencia italiana de protección de datos denunció la “ausencia de base jurídica que justifique la recogida y almacenamiento masivo de datos personales con el fin de entrenar sus algoritmos” y dio 20 días a OpenAI, creadora de la aplicación, para demostrar que no vulnera el Reglamento General de Protección de Datos (GDPR) de la UE.

En España, el tema también preocupa. Preguntada por EL PERIÓDICO, la Agencia Española de Protección de Datos (AEPD) ha confirmado que solicitará la inclusión de ese debate en el próximo Plenario del Comité Europeo de Protección de Datos –que se celebrará en abril– para que “se puedan poner en marcha acciones armonizadas” y “coordinadas a nivel europeo”.

En ese aspecto, las opiniones de los expertos no coinciden. “Prohibir es una opción un tanto radical. Me preocupa porque eso refuerza el papel de Europa como freno a una innovación que se produce fuera”, apunta el analista Antonio Ortiz. “La regulación de la aeronáutica hace que si cae un avión todo el mundo lo investiga para que no caigan más. No es un sector perfecto, pero es mejor que lo que ocurre con la IA”, opina Ariel Guersenzvaig, investigador en ética tecnológica. “Nadie niega que sea algo fascinante, pero hay que frenar un poco”.

Denuncias y presión

Desde 2016, en el mundo se han pasado 123 leyes que tratan sobre la IA; 37 de las cuales se aprobaron en 2022, según el informe AI Index de la Universidad de Stanford. Sin embargo, hasta ahora los intentos de regulación se han centrado más en la IA convencional –aplicada en las cadenas de producción o en la salud– que en herramientas como ChatGPT o Midjourney.

Noticias relacionadas

Advertisement

Calcular los riesgos de estos sistemas es complicado, pues tienen una gama de usos muy amplia y parte de esos pueden ser beneficiosos para la sociedad. Aún así, también tienen efectos nocivos, lo que está impulsando nuevos demandas contra generadoras de texto e imagen que van desde un alcalde que ha denunciado el daño reputacional causado por las mentiras producidas por esos sistemas a artistas que denuncian una violación de sus derechos de autor.

Ese malestar está llevando a las autoridades a actuar. En Alemania, el regulador estudia una restricción similar a la italiana, que el Gobierno federal rechaza. En Francia, el ayuntamiento de Montpelier quiere prohibir ChatGPT “por precaución”. En el Reino Unido, el Ejecutivo ha pedido a los reguladores establecer normas. China ha exigido a las empresas facilitar detalles de sus algoritmos. Mientras tanto, la falta de control en Estados Unidos ha alentado una carrera entre sus gigantes empresariales por el dominio de la IA que los críticos tachan de “irresponsable”. Aún así, legisladores y organizaciones civiles ya están empezando a hacer sonar las alarmas.

Fuente

Advertisement
Advertisement

Nacional

Más

Populares