• Lun. Oct 7th, 2024

    Carta abierta a los líderes europeos para la aprobación de la ley sobre inteligencia artificial | Tecnología

    Azanías Pelayo

    PorAzanías Pelayo

    Nov 30, 2023

    Estimados señores Macron, señora Meloni, señor Scholz y señor Sánchez (como presidente interino):

    Nos encontramos en un punto crítico en la vida del proyecto de Reglamento sobre IA (Ley de IA). En la fase del diálogo tripartito, esta regulación se ve amenazada por lo que consideramos una oposición equivocada de sus representantes gubernamentales, a favor de la autorregulación de las empresas que desarrollan modelos fundamentales de IA (como ChatGPT y Bard). Esto implica que estas empresas deberían adherirse a sus propios códigos de conducta, en lugar de estar reguladas directamente por organismos oficiales. Este cambio de enfoque retrasa la adopción del reglamento sobre IA, sobre todo teniendo en cuenta las próximas elecciones al Parlamento Europeo previstas para junio. Y, lo que es más grave, podría socavar su eficacia y plantear graves riesgos para los derechos de los ciudadanos europeos y la innovación europea. En contra de un enfoque de autorregulación, instamos a todas las partes involucradas en el juicio a que aprueben el reglamento sobre IA lo antes posible. A continuación describimos tres razones clave para apoyar la adopción del Reglamento IA en su forma original.

    Las empresas no deberían establecer las reglas por sí mismas

    Los códigos de conducta, incluso cuando son obligatorios, son insuficientes y a menudo ineficaces. Cuando las empresas se autorregulan, pueden priorizar las ganancias sobre la seguridad pública y las cuestiones éticas. Tampoco está claro quién supervisará el desarrollo y la implementación de estos códigos de conducta, cómo y con qué grado de responsabilidad. Este enfoque recompensa a las empresas que asumen riesgos al no invertir tiempo y recursos en códigos de conducta estrictos, en detrimento de aquellas que los cumplen.

    Esto también es perjudicial para la industria de la IA, ya que deja a las empresas sin saber si sus productos y servicios se permitirán en el mercado y si corren el riesgo de recibir multas después de su comercialización. Es posible que sea necesario abordar las incertidumbres mediante normas directas una vez que el reglamento ya haya sido aprobado, lo que limitaría el debate parlamentario. Por último, si cada empresa o sector establece sus propias reglas, el resultado sólo puede ser un confuso mosaico de normas, lo que aumenta la carga de supervisión para el regulador, pero también hace más difícil para las empresas cumplir los códigos, obstaculizando así tanto la innovación como la innovación. e innovación. así como el cumplimiento. Esto va en contra de uno de los objetivos fundamentales del Reglamento sobre IA, que es armonizar las normas dentro de la UE.

    Liderazgo de la UE en la regulación de la IA

    La actual oposición de Francia, Italia y Alemania a la regulación de modelos fundamentales de IA pone en riesgo el liderazgo de la UE en la regulación de la IA. La UE ha estado a la vanguardia en la promoción de regulaciones que garanticen que la tecnología sea segura y justa para todos. Pero esta ventaja podría perderse si los desafíos regulatorios restantes no se abordan rápida y exitosamente. Una UE indecisa perderá su ventaja competitiva frente a países como Estados Unidos o China. Los ciudadanos europeos corren el riesgo de utilizar productos de IA regulados según valores y agendas no alineadas con los principios europeos.

    El coste de no regular la IA

    Retrasar la regulación de la IA conlleva costes importantes. Sin estándares comunes, los ciudadanos son vulnerables a aplicaciones de IA que no sirven al interés público. Esta falta de regulación abre la puerta a un posible mal uso y mal uso de las tecnologías de IA. Las consecuencias son graves e incluyen violaciones de la privacidad, prejuicios, discriminación y amenazas a la seguridad nacional en áreas críticas como la atención médica, el transporte y la aplicación de la ley. Desde una perspectiva económica, las aplicaciones no reguladas de la IA pueden distorsionar la competencia y la dinámica del mercado, creando un campo de juego desigual en el que sólo triunfarán las empresas poderosas y bien financiadas. Es un error pensar que la regulación va en contra de la innovación: sólo a través de la regulación y, por tanto, de la competencia leal, la innovación puede florecer, en beneficio de los mercados, las sociedades y el medio ambiente. Sólo con una mejor regulación podremos lograr más innovación.

    En conclusión, el Reglamento AI es más que una simple ley. Es una declaración sobre los valores que nosotros, como europeos, queremos promover y el tipo de sociedad que queremos construir. Implementa y fortalece la identidad y reputación de la UE. Destaca la credibilidad de la UE y su papel de liderazgo en la comunidad mundial de IA.

    Por todas estas razones, cinco años después de la publicación del Marco ético para una buena sociedad de IA de AI4People, que guió los primeros trabajos del Grupo de Alto Nivel sobre IA de la Comisión Europea, instamos a las instituciones de IA de la UE y los Estados miembros a encontrar un compromiso que preserve la integridad y la ambición del Reglamento sobre IA. Que esta legislación sea un modelo de gobernanza de la IA responsable y ética, que sirva como ejemplo global a seguir para otros.

    La carta está firmada por:

    Luciano Florididirector fundador del Centro de Ética Digital de la Universidad de Yale y presidente de Atomium-EISMD.

    Miguel Ángel Baracchi BonviciniPrimer Presidente del Comité Científico del Instituto AI4People y Presidente del Instituto AI4People.

    Raja ChatilaProfesor emérito de Inteligencia Artificial, Robótica y Ética Informática en la Universidad de la Sorbona.

    Patrice ChazerandDirector de Asuntos Públicos del Instituto AI4People y exdirector de Asuntos Públicos Digitales para Europa.

    Donald Combsvicepresidente y decano de la Facultad de Profesiones de la Salud de la Facultad de Medicina de Eastern Virginia.

    Bianca De Teffe’Erbdirector de ética de datos e inteligencia artificial en Deloitte.

    virginie dignumProfesor principal de Inteligencia Artificial, Universidad de Umeå y miembro del Consejo Asesor de Alto Nivel sobre Inteligencia Artificial de las Naciones Unidas.

    Ronan KennedyProfesor asociado, Facultad de Derecho, Universidad de Galway.

    Roberto MadeleinePresidente del Consejo Asesor del Instituto AI4People.

    Claudio Novelliinvestigador postdoctoral del Departamento de Estudios Jurídicos de la Universidad de Bolonia y miembro internacional del Centro de Ética Digital (DEC) de la Universidad de Yale.

    Burkhard SchäferProfesor de Teoría Jurídica Computacional en la Universidad de Edimburgo.

    Afzal SiddiquiProfesor del Departamento de Ciencias de la Computación y de Sistemas de la Universidad de Estocolmo.

    Sara SpiekermannPresidente del Instituto de SI y Sociedad de la Universidad de Economía y Negocios de Viena.

    Ugo PagalloProfesor titular de jurisprudencia, teoría jurídica e informática jurídica en el Departamento de Derecho de la Universidad de Turín.

    Cory RobinsonProfesor de diseño de comunicación y sistemas de información en la Universidad de Linköping.

    Elisabeth Staudeggerprofesor de informática jurídica y derecho de TI (derecho de tecnologías de la información), jefe del departamento jurídico y de TI del Instituto de Fundamentos Jurídicos de la Universidad de Graz.

    Mariarosaria TaddeoProfesor de Ética Digital y Tecnologías de Defensa en el Oxford Internet Institute de la Universidad de Oxford.

    Peggy Valcképrofesor de derecho y tecnología en la Universidad Católica de Lovaina y vicedecano de investigación de la Facultad de Derecho y Criminología de Lovaina.

    puedes seguir EL PAÍS Tecnología dentro Facebook Y X o regístrate aquí para recibir nuestra boletín semanal.