empty
 
 
La UE respalda un nuevo marco regulatorio para la IA

La UE respalda un nuevo marco regulatorio para la IA

La Unión Europea ha respaldado recientemente un importante documento que describe el marco para regular la inteligencia artificial (IA). Este reglamento exige que los sistemas de IA cumplan con estándares fundamentales, garantizando la transparencia y la gobernanza ética en este sector en rápida evolución. Los funcionarios de la UE, encargados de supervisar la IA, están en el camino correcto. Dada la influencia generalizada de la IA en la vida moderna, es crucial establecer mecanismos de supervisión sólidos para evitar escenarios distópicos en los que la IA podría potencialmente dominar el control humano. El comisario de la UE, Thierry Breton, anunció este acuerdo fundamental, que establece las directrices regulatorias para la IA. Bloomberg destaca que estas directrices exigen que los desarrolladores de IA establezcan una política clara para un uso aceptable, actualicen periódicamente a las partes interesadas sobre los datos utilizados en la formación de IA y respeten los derechos de propiedad intelectual. Un foco clave de esta regulación es la inteligencia artificial general (AGI), a veces denominada "IA fuerte" o "IA a nivel humano". AGI está diseñado para manejar una amplia gama de desafíos intelectuales y adaptarse a entornos novedosos. ChatGPT de OpenAI es un excelente ejemplo de tecnología de vanguardia. Esta normativa abarca todo tipo de modelos de chatbot, a excepción de aquellos basados en plataformas de código abierto y de acceso irrestricto. Para los modelos de IA clasificados como de mayor "riesgo sistémico", existen criterios más estrictos. Los desarrolladores de dichos modelos deben divulgar información sobre su consumo de energía, alinearse con futuros estándares de eficiencia energética, evaluar y mitigar proactivamente los riesgos sistémicos e informar rápidamente cualquier incidente operativo. La implementación oportuna de medidas de ciberseguridad también es un aspecto crítico de estos requisitos. La evaluación de los "riesgos sistémicos" se basará en los recursos computacionales empleados en el entrenamiento de los sistemas de IA. El GPT-4 de OpenAI sirve como ejemplo actual de un modelo que estaría sujeto a estas consideraciones. Cabe destacar que este documento regulatorio aún se encuentra en sus etapas preliminares. Su adopción formal depende de la aprobación tanto del Parlamento Europeo como de los 27 estados miembros de la UE. Anteriormente, Francia y Alemania expresaron su preocupación de que ciertos aspectos de estas regulaciones de IA pudieran impedir inadvertidamente el progreso de nuevas empresas como la francesa Mistral AI y la alemana Aleph Alpha.

Volver

See aslo

¿No puede hablar ahora mismo?
Ingrese su pregunta en el chat.