El plan de la Casa Blanca para mitigar los riesgos de la inteligencia artificial
La Casa Blanca ha anunciado este jueves nuevas medidas para incentivar la innovación responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de los ciudadanos. La Administración del presidente Joe Biden aspira a avanzar en un “enfoque cohesivo y global de los riesgos y oportunidades relacionados con la IA”, según la Casa Blanca. La proliferación del uso de herramientas como chatbots, así como la capacidad de la IA para manipular e incluso falsear imágenes, ha empujado a Washington a intentar poner coto a la popularización de su uso, en vísperas del arranque de una nueva campaña electoral, la de 2024. Si la desinformación en el ámbito virtual ha hecho estragos en los últimos años, el recurso a la IA para crear realidades alternativas es un riesgo estratégico demasiado elevado, como ha puesto de manifiesto esta misma semana el padre de la IA, Geoffrey Hinton.
La Fundación Nacional de las Ciencias (NSF, en sus siglas inglesas; agencia gubernamental) tiene previsto invertir 140 millones de dólares (unos 127 millones de euros) adicionales para crear siete nuevos Institutos Nacionales de Investigación sobre IA, de carácter temático, como informa en su web. En total, habrá 25 institutos nacionales de investigación de la IA en el país, con 500 millones de dólares de financiación para “apoyar una innovación responsable” que promueva el bien público. Como comparación, el gigante tecnológico Microsoft invirtió 10.000 millones de dólares solo en OpenAi, la compañía que desarrolla el popular ChatGPT. La Administración demócrata también se ha comprometido a publicar un borrador de directrices para que las agencias gubernamentales garanticen que su uso de la IA salvaguarda “los derechos y la seguridad del pueblo estadounidense”, además de conseguir el compromiso de varias empresas del sector de someter sus productos a escrutinio en una conferencia sobre ciberseguridad que se celebrará en agosto.
La Casa Blanca está sometida a una creciente presión para vigilar la inteligencia artificial desde que el año pasado OpenAI puso a disposición del público esa aplicación y los particulares empezaron a utilizarlo de inmediato para buscar información, realizar tareas escolares o avanzar en el trabajo. Desde entonces, a un ritmo vertiginoso, algunas de las grandes tecnológicas se han apresurado a incorporar chatbots a sus productos y han acelerado la divulgación de la IA como un nuevo producto de consumo. Pero la existencia, también creciente, de imágenes falsas generadas por IA en internet supone un serio aviso, del que vienen alertando algunos expertos, incluido Hinton, del potencial desinformador que tiene esta tecnología, algo especialmente peligroso en campañas electorales y en un país tan polarizado política y socialmente como EE UU.
En una llamada con periodistas celebrada el miércoles, un alto funcionario de Washington ha recordado que la Administración de Biden “ha estado liderando estas cuestiones desde mucho antes de estos nuevos productos de IA”. “Para aprovechar las ventajas de la IA debemos empezar por mitigar sus riesgos. Y este principio básico ha guiado nuestro trabajo sobre la IA desde el principio”, añadió la fuente. En otoño, la Casa Blanca publicó el denominado Plan para una Declaración de Derechos de la IA, “un ancla importante y una hoja de ruta” sobre la que se ha construido la batería de salvaguardas. Junto con el llamado Marco de Gestión de Riesgos de la IA, se ha “dado a las empresas y a los responsables políticos y a las personas que generan estas tecnologías algunas formas claras de mitigar los riesgos”, dijo el alto funcionario.
El objetivo parece sencillo sobre el papel: aprovechar las oportunidades de la IA y a la vez mitigar sus riesgos, entre ellos la posible robotización o automatización de puestos de trabajo, con la consiguiente destrucción de empleo, como denunciaba Hinton entre otros. Como ponerle el cascabel al gato, la Administración de Biden sitúa a las personas y las comunidades en el centro de su estrategia; el bien público, la protección de la seguridad y la economía nacionales. Del llamamiento de la Casa Blanca se deduce que son las empresas las que tienen la responsabilidad fundamental de “asegurarse de que sus productos son seguros” antes de comercializarlos o hacerlos públicos. Y si para ello es necesario participar, junto a las tecnológicas, “en una evaluación independiente y pública de sus sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo”, apuntó el alto funcionario, la Casa Blanca lo hará. “Estos modelos [de IA] serán evaluados allí por miles de socios de la comunidad y expertos para ver cómo se alinean con los valores descritos en el borrador de la Declaración de Derechos y en el Marco de Gestión de Riesgos”, añadió la fuente. La primera velará por que los sistemas automatizados protejan la privacidad de los datos y protejan a los usuarios de sesgos discriminatorios, otro de los temores que suscita la generalización de la IA.
En un artículo publicado el miércoles en el diario The New York Times, Lina Khan, presidenta de la Comisión Federal de Comercio —y conocido azote de los monopolios y las tecnológicas—, apuntaba que EE UU se encuentra en un “punto de decisión clave” sobre la materia. Equiparando el avance de la nueva tecnología con el nacimiento de gigantes como Google y Facebook, Khan advertía de que, sin una regulación adecuada, la tecnología podría afianzar el poder de las mayores empresas tecnológicas.
ENLACE ORIGINAL: El plan de la Casa Blanca para mitigar los riesgos de la inteligencia artificial – LaPatilla.com (awsccs2.com)
Planes de Suscripción para Agencias Podemos publicar todas tus notas de prensa con estos planes.
- Breaking20.318
- Deportes2.985
- Economía16
- Entretenimiento7
- Mundo18
- Negocios7
- Política25
- Salud150
- Sucesos1.372
- Tecnología321