Ex miembros del equipo de OpenAI alertan sobre falta de supervisión en el desarrollo de inteligencia artificial avanzada, respaldados por el «Padrino de la IA», Geoffrey Hinton.
En una carta abierta respaldada por el renombrado experto en IA Geoffrey Hinton, ex empleados de OpenAI revelan preocupaciones sobre la falta de transparencia y supervisión en el desarrollo de inteligencia artificial avanzada. La carta, firmada por 13 ex empleados, destaca la necesidad urgente de principios de crítica abierta para abordar los riesgos crecientes asociados con la IA.
Los ex empleados advierten sobre los riesgos potenciales de la IA, incluida la perpetuación de desigualdades, manipulación y desinformación, así como la amenaza de extinción humana. Aunque reconocen el potencial beneficioso de la IA, también subrayan problemas prácticos actuales, como violaciones de derechos de autor y la generación involuntaria de imágenes problemáticas.
Los firmantes de la carta argumentan que las protecciones actuales para denunciantes son insuficientes, ya que se centran principalmente en actividades ilegales, dejando un vacío regulatorio en temas de seguridad de la IA. Destacan la necesidad de un enfoque más amplio que permita a los empleados actuales y anteriores plantear preocupaciones públicamente sin temor a represalias.
Impacto de la industria: Empresas líderes en IA, como OpenAI, han enfrentado críticas por su falta de supervisión en seguridad. Ejemplos recientes incluyen controversias sobre el uso de IA en motores de búsqueda y la generación de contenido problemático por parte de sistemas de IA.
La renuncia de investigadores de OpenAI y la disolución de equipos centrados en la seguridad plantean preocupaciones sobre la priorización de la innovación sobre la seguridad en la industria de la IA.