Europa quiere que ChatGPT avise de que sus contenidos están creados con IA
El Parlamento Europeo ha dado este jueves el primer paso para negociar con los Veintisiete las primeras leyes para regular la inteligencia artificial, unas normas europeas que serán las primeras del mundo en el sector y con las que los eurodiputados quieren que el chatbot de OpenAI, ChatGPT, y otros sistemas similares adviertan con transparencia de que sus contenidos han sido creados por la inteligencia artificial.
Así consta en el mandato negociador que han aprobado las comisiones de Mercado Interior y de Libertades Civiles, Justicia e Interior y que está aún pendiente de adopción formal por el pleno de la Eurocámara en la próxima sesión de junio.
Los eurodiputados quieren reforzar las restricciones de transparencia que la Comisión Europea planteó en su propuesta inicial para regular la inteligencia artificial por lo que añaden condiciones adicionales, por ejemplo, que los contenidos generados por estos sistemas se publiquen con un aviso de cuál es su origen.
También abogan por que el modelo de lenguaje esté diseñado de modo que evite generar contenidos ilegales y que deba publicar resúmenes de los datos protegidos por derechos de autor que hayan sido utilizados por la formación de algoritmos.
Otras de las novedades que defienden los eurodiputados es ampliar la clasificación de áreas de alto riesgo para incluir daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente; al tiempo que suman a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de redes sociales.
Por otro lado, el mandato negociador plantea que para impulsar la innovación en inteligencia artificial se prevean exenciones a estas reglas para quienes desarrollan e investigan componentes bajo licencias de código abierto.
Las nuevas normas también deberán contar con mecanismos para que los ciudadanos puedan presentar sus quejas sobre los sistemas y recibir explicaciones por decisiones basadas en el uso de modelos de inteligencia artificial que afecten a sus derechos fundamentales.