El rápido ascenso de ChatGPT y la afluencia de competidores de inteligencia artificial (IA) está dejando al gobierno federal lidiando con una variedad de preocupaciones, desde la difusión de información errónea y una fuerza laboral cambiante, hasta los riesgos de sesgo inherente en la tecnología.
Los legisladores y los reguladores buscan adoptar un enfoque unificado para abordar las crecientes preocupaciones.
La Comisión Federal de Comercio (FTC), la División de Derechos Civiles del Departamento de Justicia (DOJ), la Oficina de Protección Financiera del Consumidor (CFPB) y la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) emitieron una declaración conjunta el martes comprometiéndose a hacer cumplir las leyes existentes que tienen como objetivo defender equidad y justicia, ya que la IA se utiliza cada vez más en una variedad de servicios, desde la vivienda hasta la atención médica.
Los problemas van desde hacer cumplir las leyes existentes que tienen como objetivo abordar la discriminación que podría surgir a medida que la IA se implementa de manera más amplia, hasta sopesar las nuevas regulaciones que establecen las reglas del camino.
“Nos hemos unido para dejar en claro que el uso de tecnologías avanzadas, incluida la inteligencia artificial, debe ser coherente con las leyes federales”, dijo Charlotte A. Burrows, presidenta de la EEOC.
El anuncio conjunto de las agencias se centró en gran medida en los sistemas automatizados que utilizan IA, en lugar de los chatbots generativos impulsados por IA como ChatGPT.
Aun así, la creciente popularidad de ChatGPT, el surgimiento de una herramienta rival de Google y otras compañías que ingresan a la industria, incluida una nueva empresa de Tesla y el CEO de Twitter, Elon Musk, subrayan la escasez de tiempo para los formuladores de políticas.
Los dos temas clave de la IA
Alexandra Reeve Givens, presidenta del Centro para la Democracia y la Tecnología, una organización sin fines de lucro que se enfoca en cuestiones de política tecnológica, incluida la privacidad en Internet, dijo que hay dos cuestiones clave de la IA.
Por un lado, están los problemas relacionados con la difusión de desinformación que plantea el reciente auge de las herramientas generativas de IA, como los populares chatbots o las herramientas que pueden crear videos “deep fake”.
Por otro lado, la IA que impulsa los sistemas automatizados presenta riesgos de sesgo inherente que puede conducir a la discriminación.
“Para mí, es increíblemente importante que los formuladores de políticas piensen en ambos, y que en las conversaciones recientes sobre la IA generativa no olviden todo el trabajo realmente importante que estaba ocurriendo y debe continuar en torno a la parte de toma de decisiones automatizada de la conversación”, dijo Givens a The Hill.
Givens dijo que para enfrentar los riesgos que plantea la IA, se necesitará una combinación de que el Congreso evalúe las nuevas regulaciones y las agencias aumenten la forma en que hacen cumplir las leyes preexistentes.
“Uno de los problemas es que incluso cuando se aplican las leyes existentes, puede ser difícil hacerlas cumplir debido a cómo funcionan los sistemas de inteligencia artificial”, dijo.
Por ejemplo, las herramientas algorítmicas de contratación pueden generar discriminación, pero sería difícil para un trabajador saber si está siendo discriminado a través del sistema, dijo.
“Una de las cosas con las que las agencias deben lidiar no es solo la aplicación literal de la ley, sino cómo lidiar con los desafíos de cumplimiento y comprender cómo estos sistemas de IA tienen un efecto en el mundo real, y eso es algo que necesitamos en todas las agencias en muchos sectores. estar viendo ahora mismo”, dijo.
Kristen Clarke, fiscal general adjunta de derechos civiles, también enfatizó que los legisladores deben ser parte de la solución, ya que las agencias tienen como objetivo aumentar la aplicación.
“La inteligencia artificial plantea algunas de las mayores amenazas de la actualidad en lo que respecta a la discriminación, y estos temas merecen un estudio y examen más detenido por parte de los legisladores y otros”, dijo Clarke durante una conferencia de prensa el martes.
“Pero mientras tanto, tenemos un arsenal de leyes fundamentales de derechos civiles que nos otorgan la responsabilidad de responsabilizar a los malos actores”, agregó.
¿Qué está haciendo el Congreso?
El anuncio conjunto de las agencias siguió a una propuesta presentada por el líder de la mayoría del Senado, Charles Schumer (D-N.Y.) a principios de este mes que crearía un marco para la regulación de la IA de una manera que apunte a aumentar la transparencia y la responsabilidad.
El marco propuesto es amplio, pero podría ser un punto de partida para que el Congreso tome medidas, especialmente con el impulso del líder de la mayoría.
Además de la propuesta de Schumer, los legisladores han tomado medidas para presionar a la industria sobre los riesgos relacionados con el aumento de la tecnología de IA.
El senador Mark Warner (D-Va.), presidente del Comité de Inteligencia del Senado, envió cartas el miércoles a los directores ejecutivos de las firmas tecnológicas OpenAi, Scale AI, Meta, Google, Apple Stability AI, Midjourney, Anthropic, Percipient.ai y Microsoft preguntando cómo están abordando los riesgos de seguridad a medida que desarrollan modelos de IA a gran escala.
“Si bien la preocupación pública por la seguridad de la IA ha ido en aumento, sé que el trabajo sobre la seguridad de la IA no es nuevo”, escribió Warner a las empresas.
“Sin embargo, con el uso cada vez mayor de la IA en grandes sectores de nuestra economía y la posibilidad de que los grandes modelos de lenguaje se integren constantemente en una variedad de sistemas existentes, desde los sectores de atención médica hasta finanzas, veo una necesidad urgente de subrayar la importancia de poner la seguridad al frente de su trabajo”, continuó.
Los senadores John Hickenlooper (D-Colo.) y Marsha Blackburn (R-Tenn.) también enviaron la semana pasada una carta a seis asociaciones tecnológicas, incluidas Software Alliance (BSA) y Consumer Technology Association (CTA) sobre cómo sus miembros están teniendo en cuenta las mejores prácticas en IA.
Un portavoz de CTA dijo que la asociación ha estado "trabajando activamente" con sus miembros para "contribuir a las políticas, estándares y marcos en torno a la IA".
“Mientras hacemos eso, agradecemos las consultas de los formuladores de políticas y las oportunidades para el diálogo entre el gobierno y las partes interesadas. La colaboración será clave para lograr un enfoque de política nacional con las protecciones y flexibilidades necesarias para el liderazgo estadounidense en IA”, dijo el portavoz en un comunicado.
Craig Albright, vicepresidente de relaciones gubernamentales de EE. UU. para BSA, dijo que el Congreso puede exigir a las empresas que tengan programas de gestión de riesgos y que evalúen los riesgos para usos de IA de alto riesgo, así como definir lo que significaría un caso de alto riesgo.
“Luego, las empresas deberán realizar evaluaciones de impacto y evaluaciones de diseño para asegurarse de que están haciendo lo que deben hacer para eliminar el sesgo no deseado”, dijo.
Fans