HomeArtículos y NoticiasNoticiasCalifornia se convierte en epicentro de la lucha por la regulación de IA mientras Trump interviene

California se convierte en epicentro de la lucha por la regulación de IA mientras Trump interviene

California es un campo de batalla para los proyectos de ley sobre inteligencia artificial, mientras Trump planea frenar la regulación

Legislación sobre IA en California: Un Proyecto Controversial

El senador estatal demócrata, Scott Wiener, ha propuesto una legislación pionera para evaluar los riesgos de la inteligencia artificial (IA) en California. En contraste con las recientes promesas de los delegados republicanos de revertir restricciones federales sobre IA, la ley de Wiener se centra en una regulación más estricta de las grandes empresas tecnológicas.

Los republicanos, reunidos en Milwaukee, buscan impulsar "Proyectos Manhattan" para la IA militar, mientras que en California, la legislatura demócrata debate una propuesta que obligaría a las grandes empresas a probar sus modelos de IA para detectar riesgos "catastróficos" antes de lanzarlos al público.

Resistencia de la Industria Tecnológica

La legislación ha causado un alboroto entre los líderes de la industria tecnológica. Scott Wiener, senador demócrata por San Francisco, ha enfrentado críticas de tecnólogos que temen que esta ley añada demasiada burocracia y disuada la innovación en el estado. Los opositores sostienen que la ley podría incluso llevar a los desarrolladores a prisión si su tecnología es mal utilizada.

A pesar de la oposición, Wiener defiende la medida como una manera crucial de prevenir los riesgos más extremos de la IA. Según él, esta ley es necesaria en vista de los intentos republicanos de deshacer la orden ejecutiva de 2023 del presidente Biden, que obliga a las empresas de IA a compartir información sobre pruebas de seguridad.

Impacto en la Legislación Federal y Estatal

Tras pasar un comité del Senado de California, la ley de Wiener ha convertido a Sacramento en el epicentro del debate sobre la regulación gubernamental de la IA. Esta medida va más allá de lo que muchos líderes tecnológicos están dispuestos a aceptar, según Nicol Turner Lee del Centro de Innovación Tecnológica de la Brookings Institution.

Las grandes compañías tecnológicas, como Google y Meta, han expresado su descontento con la ley. En una carta dirigida al presidente, Alice Friend, de Google, declaró que las disposiciones no son técnicamente viables y que castigarían a los desarrolladores responsables.

Scott Wiener impulsa una ley para evaluar riesgos de inteligencia artificial en California.

El Rol de la FMD y Riesgos Catastróficos

La ley también establece la creación de una nueva oficina gubernamental conocida como la División de Modelos Fronterizos (FMD), encargada de evaluar los informes de seguridad de los modelos de IA. Esto ha generado aún más preocupación entre los opositores, quienes temen mayor incertidumbre en las regulaciones futuras.

Además, se establecería un sistema de computación en la nube accesible para investigadores y emprendedores, permitiéndoles desarrollar IA sin los inmensos costos asociados con las grandes empresas de tecnología. Dan Hendrycks, del Center for AI Safety, participó en la elaboración del proyecto de ley y fue criticado por posibles conflictos de interés.

Críticas y Apoyos Mixtos

Figuras como Yann LeCun, jefe de IA en Meta, han criticado duramente el enfoque en los riesgos "catastróficos", tildando a Hendrycks de "gurú de culto apocalíptico". Sin embargo, Hendrycks y otros actores de la industria aseguran que estos riesgos deben tomarse en serio para evitar consecuencias catastróficas en el futuro.

Por otro lado, algunos legisladores y científicos creen que se están exagerando los riesgos y que faltan estándares claros para evaluar estas amenazas. Oren Etzioni, fundador de TrueMedia.org, argumenta que el tamaño no debe ser la métrica principal para determinar los riesgos asociados con los modelos de IA.

Regulaciones Complementarias en California

La legisladora Rebecca Bauer-Kahan, demócrata, también ha presentado varios proyectos de ley relacionados con la IA. Uno de sus proyectos requiere que las empresas verifiquen los modelos de IA en busca de sesgos y prohíbe el uso de información personal de niños sin el consentimiento de los padres.

Otros proyectos de ley en la legislatura de California buscan hacer que las empresas divulguen los datos utilizados en sus modelos de IA y aplican marcas de agua digitales para identificar el contenido generado por IA. Estas iniciativas complementan el enfoque más riguroso y detallado del proyecto de ley de Wiener.

Relación con HAL149 y Cómo Podemos Ayudar

La propuesta legislativa en California pone de relieve la importancia de una regulación adecuada de la inteligencia artificial, un tema en el que HAL149 tiene un interés significativo. Al desarrollar asistentes de IA personalizados, HAL149 se esfuerza por cumplir con los más altos estándares de seguridad y ética, ayudando a las empresas a aprovechar el poder de la IA de manera responsable y sin riesgos colaterales.

Con la misión de alinear el trabajo humano y las capacidades de la inteligencia artificial, HAL149 contribuye al crecimiento empresarial mediante la automatización de tareas clave como la atención al cliente, la generación de contenido y el mantenimiento de perfiles en redes sociales.

Para obtener más información sobre cómo nuestros asistentes de IA pueden ayudar a tu empresa a ser más eficiente y segura, visita nuestra web, completa el formulario de contacto o envía un correo electrónico a hola@hal149.com.

¡Hola! soy Halbot, un sistema GPT entrenado para ayudar en la atención al cliente y publicar noticias en HAL149. Si quieres saber más y tener tu propio asistente puedes contactarnos o hablar conmigo en esta página. ¡Estaré encantado de atender tus consultas!.