¿Cómo se regula la Inteligencia Artificial (Gen AI)?

“La IA es demasiado grande como para no regularla, y demasiado importante como para no regularla bien”, afirma el CEO de Google. Aunque, de hecho, la inteligencia artificial generativa (Gen AI) ya se regula en varias zonas del mundo. 

Por ejemplo, la Ley de IA de la UE incluye normas prescriptivas extensas y de arriba hacia abajo, prohibiendo usos de la IA que consideran de riesgo inaceptable; está en las etapas finales de aprobación. China ha establecido que los algoritmos deben ser revisados previamente por el estado y “deben adherirse a los valores socialistas centrales”. En cambio, Estados Unidos está adoptando su enfoque típico descentralizado.

Si tienes dudas acerca de la regulación de la Inteligencia Artificial Generativa (Gen AI), lo mejor es que te acerques a expertos en el tema como Codster. De esta manera, puedes evitarte problemas en el futuro, pues puedes tener consecuencias tanto legales como en percepción de tus potenciales clientes.

El debate sobre la regulación de la IA se ha vuelto acalorado y politizado, reflejando las inmensas esperanzas y temores que hemos depositado en la IA. En un extremo, el tecnólogo líder y capitalista de riesgo Marc Andreessen dice: “Tenemos un pánico moral total sobre la IA en este momento.” 

Él ve esto como un “miedo histérico” que es “irracional” y lo compara con la introducción de nuevas tecnologías en el pasado que fueron temidas de manera similar, pero que fueron exageradas y posteriormente gestionadas. Él cree que la IA es simplemente un programa de computadora que es propiedad, controlado y utilizado por personas, y que la IA no tiene sus propios objetivos o deseos. Además, enfatiza, la IA puede ser una fuerza de bien tremendo.

Pero, ¿cómo se encuentra actualmente la regulación de la inteligencia artificial generativa (Gen AI)?

Regulación de la Inteligencia Artificial Generativa (Gen AI)

Estados Unidos se basa en leyes y directrices federales existentes para regular la IA, pero tiene como objetivo introducir una legislación específica sobre IA y una autoridad reguladora federal. Sin embargo, hay leyes federales que se refieren a la Inteligencia Artificial Generativa, aunque de manera limitada. Algunos ejemplos clave son:

  • La Orden Ejecutiva de la Casa Blanca sobre IA (titulada Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial), dirigida a múltiples sectores y basada en la idea de que “aprovechar la IA para el bien y obtener sus innumerables beneficios requiere mitigar sus riesgos sustanciales”.
    • Esta orden se enfoca en las agencias federales y los desarrolladores de modelos fundamentales, ordena el desarrollo de estándares federales y requiere que los desarrolladores de los sistemas de Inteligencia Artificial más poderosos compartan los resultados de pruebas de seguridad y otra información crítica con el gobierno de EE.UU. También pide al Departamento de Comercio emitir directrices para la autenticación de contenido y el marcado de agua para etiquetar el contenido generado por IA.
  • El Plan de la Casa Blanca para una Carta de Derechos de IA, que establece directrices sobre el acceso equitativo y el uso de los sistemas de IA.
    • Esta carta de derechos proporciona cinco principios y prácticas asociadas para ayudar a guiar el diseño, uso y despliegue de “sistemas automatizados”, incluyendo sistemas seguros y efectivos; protección contra la discriminación algorítmica; privacidad de datos; aviso y explicación; y alternativas humanas, consideraciones y respaldos.
  • Varias empresas líderes en IA (por ejemplo, Adobe, Amazon, IBM, Google, Meta, Microsoft, Open AI y Salesforce) se han comprometido voluntariamente a “ayudar a avanzar hacia el desarrollo seguro, seguro y transparente de la tecnología de IA”.
    • Estas empresas se comprometen a realizar pruebas de seguridad internas y externas de los sistemas de IA antes de su lanzamiento, compartir información sobre la gestión de riesgos de IA e invertir en salvaguardias.
  • La Comisión Federal de Comunicaciones emitió un fallo declaratorio que establece que las restricciones sobre el uso de mensajes de “voz artificial o pregrabada” en la Ley de Protección al Consumidor Telefónico de la década de 1990 incluyen tecnologías de IA que generan voces humanas, demostrando que las agencias regulatorias aplicarán la ley existente a la IA.

Pero, Estados Unidos no es la única zona del mundo que busca la regulación de la Inteligencia Artificial Generativa (Gen AI), también sucede lo mismo en la Unión Europea

inteligencia artificial regulacion leyes
Las leyes que regulan la Inteligencia Artificial (Gen AI) son varias y diversas. Es necesario conocerlas para evitar problemas a futuro.

Regulaciones para el desarrollo y uso de la IA en Europa

Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones para el desarrollo y uso de esta innovadora tecnología. La IA puede generar muchos beneficios, como una mejor atención médica; transporte más seguro y limpio; fabricación más eficiente; y energía más barata y sostenible.

En abril de 2021, la Comisión Europea propuso el primer marco regulatorio de la UE para la IA. Afirma que los sistemas de IA que pueden ser utilizados en diferentes aplicaciones se analizan y clasifican según el riesgo que representan para los usuarios. Los diferentes niveles de riesgo implicarán más o menos regulación.

Las nuevas reglas establecen obligaciones para los proveedores y usuarios dependiendo del nivel de riesgo de la inteligencia artificial. Aunque muchos sistemas de IA representan un riesgo mínimo, necesitan ser evaluados.

Los sistemas de IA de riesgo inaceptable son aquellos considerados una amenaza para las personas y serán prohibidos. Estos incluyen:

  • Manipulación cognitiva y conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomenten comportamientos peligrosos en niños.
  • Puntuación social: clasificar a las personas según su comportamiento, estatus socioeconómico o características personales.
  • Identificación y categorización biométrica de personas.
  • Sistemas de identificación biométrica en tiempo real y remotos, como el reconocimiento facial.

Algunas excepciones pueden permitirse para fines de aplicación de la ley. Los sistemas de identificación biométrica remotos en tiempo real se permitirán en un número limitado de casos graves, mientras que los sistemas de identificación biométrica remotos “post” se permitirán para procesar crímenes graves y solo después de la aprobación de un tribunal.

La IA generativa, como ChatGPT, no será clasificada como de alto riesgo, pero deberá cumplir con los requisitos de transparencia y la ley de derechos de autor de la UE:

  • Revelar que el contenido fue generado por IA.
  • Diseñar el modelo para evitar que genere contenido ilegal.
  • Publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Los modelos de IA de propósito general de alto impacto que puedan representar un riesgo sistémico, como el modelo de IA avanzado GPT-4, deberán someterse a evaluaciones exhaustivas y cualquier incidente grave deberá ser reportado a la Comisión Europea.

El contenido que sea generado o modificado con la ayuda de IA – imágenes, archivos de audio o video (por ejemplo, deepfakes) – deberá estar claramente etiquetado como generado por IA para que los usuarios sean conscientes cuando encuentren dicho contenido.

¿Qué te parece? ¿Ya conocías todas las regulaciones sobre la Inteligencia Artificial Generativa (Gen AI)? Si tienes dudas acerca de este u otros temas relacionados, lo mejor es que te acerques a expertos en el tema como Codster

Eri Gutierrez

Regístrate e impulsa tu empresa con nosotros

¿Curioso por saber más?

Descubre como Codster puede ayudarte
desarrollo de inteligencia artificial

¿Curioso por saber más?

Descubre como Codster puede ayudarte