
En septiembre, el gobernador de California Gavin Newsom consideró 38 proyectos de ley relacionados con la IA, incluido el muy polémico SB 1047, que la legislatura del estado envió a su escritorio para su aprobación final. Veto SB 1047 el domingo, marcando el fin del camino para el controvertido proyecto de ley de IA de California que intentaba prevenir desastres de IA, pero firmó más de una docena de otros proyectos de ley de IA este mes. Estos proyectos de ley intentan abordar los problemas más urgentes en la inteligencia artificial: desde el riesgo de IA, hasta los deepfakes de desnudos creados por generadores de imágenes de IA, hasta los estudios de Hollywood creando clones de IA de artistas fallecidos.
"Hogar de la mayoría de las principales empresas de IA del mundo, California está trabajando para aprovechar estas tecnologías transformadoras para ayudar a abordar desafíos apremiantes mientras estudia los riesgos que presentan", dijo la oficina del gobernador Newsom en un comunicado de prensa.
Hasta el momento, el gobernador Newsom ha firmado 18 proyectos de ley de IA, algunos de los cuales son las leyes más amplias de América sobre la IA generativa hasta el momento. Esto es lo que hacen.
Riesgo de IA
El domingo, el gobernador Newsom firmó el SB 896 en ley, que requiere que la Oficina de Servicios de Emergencia de California realice análisis de riesgos sobre las posibles amenazas planteadas por la IA generativa. CalOES trabajará con empresas modelo de vanguardia, como OpenAI y Anthropic, para analizar las posibles amenazas de la IA a la infraestructura crítica del estado, así como las amenazas que podrían llevar a eventos con grandes pérdidas de vidas.
Datos de entrenamiento
Otra ley que Newsom firmó este mes requiere que los proveedores de IA generativa revelen los datos utilizados para entrenar sus sistemas de IA en la documentación publicada en su sitio web. AB 2013 entrará en vigencia en 2026, y requiere que los proveedores de IA publiquen: las fuentes de sus conjuntos de datos, una descripción de cómo se utilizan los datos, el número de puntos de datos en el conjunto, si se incluyen datos con derechos de autor o con licencia, el período de tiempo en que los datos fueron recopilados, entre otros estándares.
Privacidad y sistemas de IA
Newsom también firmó AB 1008 el domingo, que aclara que las leyes de privacidad existentes de California se extienden a los sistemas de IA generativa también. Eso significa que si un sistema de IA, como ChatGPT, expone la información personal de alguien (nombre, dirección, datos biométricos), las leyes de privacidad existentes de California limitarán cómo las empresas pueden usar y beneficiarse de esos datos.
Educación
Newsom firmó AB 2876 este mes, que requiere que la Junta de Educación del Estado de California considere la "alfabetización en IA" en sus currículos de matemáticas, ciencias e historia y materiales de instrucción. Esto significa que las escuelas de California pueden comenzar a enseñar a los estudiantes los conceptos básicos de cómo funciona la inteligencia artificial, así como las limitaciones, impactos y consideraciones éticas de usar la tecnología.
Otra nueva ley, SB 1288, requiere que los superintendentes de California creen grupos de trabajo para explorar cómo se está utilizando la IA en la educación de las escuelas públicas.
Definir la IA
Este mes, Newsom firmó un proyecto de ley que establece una definición uniforme para la inteligencia artificial en la ley de California. AB 2885 establece que la inteligencia artificial se define como "un sistema basado en ingeniería o máquina que varía en su nivel de autonomía y que puede, para objetivos explícitos o implícitos, inferir a partir de la entrada que recibe cómo generar salidas que pueden influir en entornos físicos o virtuales".
Atención médica
Otro proyecto de ley firmado en septiembre es AB 3030, que requiere que los proveedores de atención médica revelen cuando utilizan IA generativa para comunicarse con un paciente, específicamente cuando esos mensajes contienen información clínica de un paciente.
Mientras tanto, Newsom firmó recientemente SB 1120, que pone limitaciones en cómo los proveedores de servicios de atención médica y las aseguradoras de salud pueden automatizar sus servicios. La ley asegura que los médicos con licencia supervisen el uso de herramientas de IA en estos entornos.
Robocalls de IA
El viernes pasado, el gobernador Newsom firmó un proyecto de ley en ley que requiere que los robocalls revelen si han utilizado voces generadas por IA. AB 2905 tiene como objetivo prevenir otra instancia del robocall deepfake que se asemejaba a la voz de Joe Biden y que confundió a muchos votantes de New Hampshire a principios de este año.
Pornografía deepfake
El domingo, Newsom firmó AB 1831 en ley, que amplía el alcance de las leyes existentes de pornografía infantil para incluir material generado por sistemas de IA.
Newsom firmó dos leyes que abordan la creación y difusión de desnudos deepfake la semana pasada. SB 926 criminaliza el acto, haciendo ilegal chantajear a alguien con imágenes de desnudos generadas por IA que se asemejan a ellos.
SB 981, que también se convirtió en ley el jueves, requiere que las plataformas de redes sociales establezcan canales para que los usuarios informen sobre desnudos deepfake que se asemejan a ellos. El contenido debe bloquearse temporalmente mientras la plataforma lo investiga y eliminarse permanentemente si se confirma.
Marcar de agua
También el jueves, Newsom firmó un proyecto de ley en ley para ayudar al público a identificar contenido generado por IA. SB 942 requiere que los sistemas de IA generativa ampliamente utilizados revelen que son generados por IA en los metadatos de su contenido. Por ejemplo, todas las imágenes creadas por el Dall-E de OpenAI ahora necesitan una pequeña etiqueta en sus metadatos que diga que son generadas por IA.
Muchas empresas de IA ya hacen esto, y hay varias herramientas gratuitas disponibles que pueden ayudar a las personas a leer estos datos de procedencia y detectar contenido generado por IA.
Deepfakes electorales
A principios de esta semana, el gobernador de California firmó tres leyes para frenar los deepfakes de IA que podrían influir en las elecciones.
Una de las nuevas leyes de California, AB 2655, requiere que las grandes plataformas en línea, como Facebook y X, eliminen o etiqueten los deepfakes de IA relacionados con elecciones, así como creen canales para informar sobre dicho contenido. Los candidatos y funcionarios electos pueden buscar alivio injuntivo si una gran plataforma en línea no cumple con la ley.
Otra ley, AB 2839, apunta a los usuarios de redes sociales que publican o vuelven a publicar deepfakes de IA que podrían engañar a los votantes sobre las elecciones próximas. La ley entró en vigencia de inmediato el martes, y Newsom sugirió que Elon Musk podría estar en riesgo de violarla.
Los anuncios políticos generados por IA ahora requieren divulgaciones claras bajo la nueva ley de California, AB 2355. Eso significa que en el futuro, Trump puede que no pueda salirse con la suya al publicar deepfakes de IA de Taylor Swift recomendándolo en Truth Social (ella respaldó a Kamala Harris). La FCC ha propuesto un requisito de divulgación similar a nivel nacional y ya ha hecho ilegales los robocalls con voces generadas por IA.
Actores y IA
Dos leyes que Newsom firmó a principios de este mes, que SAG-AFTRA, el sindicato de actores de cine y radio más grande del país, estaba promoviendo, crean nuevos estándares para la industria de los medios de California. AB 2602 requiere que los estudios obtengan permiso de un actor antes de crear una réplica generada por IA de su voz o imagen.
Mientras tanto, AB 1836 prohíbe a los estudios crear réplicas digitales de artistas fallecidos sin el consentimiento de sus herederos (por ejemplo, se utilizaron réplicas legalmente autorizadas en las recientes películas de 'Alien' y 'Star Wars', así como en otras películas).
SB 1047 es vetado
El gobernador Newsom aún tiene que decidir sobre algunos proyectos de ley relacionados con la IA antes de finales de septiembre. Sin embargo, SB 1047 no es uno de ellos: el proyecto de ley fue vetado el domingo.
En una carta explicando su decisión, Newsom dijo que SB 1047 se centraba demasiado estrechamente en los grandes sistemas de IA que podrían "dar al público una falsa sensación de seguridad". El gobernador de California señaló cómo los modelos de IA pequeños podrían ser tan peligrosos como los dirigidos por SB 1047, y dijo que se necesita un enfoque regulatorio más flexible.
Durante una charla con el CEO de Salesforce, Marc Benioff, a principios de este mes durante la conferencia Dreamforce 2024, Newsom podría haber insinuado sobre SB 1047 y cómo está pensando en regular más ampliamente la industria de la IA.
"Hay un proyecto de ley que es un poco exagerado en términos de discurso y conciencia pública; es este SB 1047", dijo Newsom en el escenario este mes. "¿Cuáles son los riesgos demostrables en la IA y cuáles son los riesgos hipotéticos? No puedo resolver todo. ¿Por qué podemos resolver? Y ese es el enfoque que estamos tomando en todo el espectro en esto."
Vuelva a consultar este artículo para conocer las actualizaciones sobre qué leyes de IA firma el gobernador de California, y cuáles no.