Varios fotógrafos han levantado quejas contra Meta por agregar de manera errónea la etiqueta “Hecho por IA” a fotografías auténticas que ellos han tomado o mejorado con herramientas de edición, según informes de TechCrunch. Esta controversia reciente incluye casos como el de Pete Souza, conocido fotógrafo de la Casa Blanca, cuya foto de un partido de baloncesto fue etiquetada como generada por IA por Meta. Otro ejemplo problemático involucra una imagen en Instagram de los Kolkata Knight Riders celebrando su victoria en la Premier League de Cricket de la India.

Los fotógrafos afectados expresan frustración porque estas etiquetas solo aparecen en dispositivos móviles y no en la web, y reportan dificultades para removerlas, incluso después de usar herramientas comunes de edición como el recorte en Adobe y la conversión a JPEG.

Además, se ha observado que Meta etiqueta incorrectamente como generadas por IA aquellas fotos en las que se ha utilizado herramientas de relleno generativo, como Adobe’s Generative Fill, para eliminar objetos mínimos. Este problema ha sido documentado por PetaPixel, quienes descubrieron que Meta añade la etiqueta en Instagram pero no al reeditar y guardar las imágenes en Photoshop.

El debate sobre la precisión de estas etiquetas ha llevado a la comunidad fotográfica a cuestionar la integridad del término «Hecho por IA», argumentando que su uso indiscriminado podría desvirtuar su significado. El fotógrafo Noah Kalina expresó en Threads su preocupación de que si incluso las fotos retocadas reciben esta etiqueta, la distinción entre realidad y manipulación podría perderse.

En respuesta a estas críticas, Meta ha indicado que está evaluando su proceso de etiquetado para reflejar de manera más precisa el uso de IA en las imágenes. La compañía ha mencionado que se apoya en estándares de la industria y está colaborando con otras empresas tecnológicas para mejorar estos sistemas de identificación.

Meta anunció en febrero que comenzaría a aplicar estas etiquetas a fotos cargadas en Facebook, Instagram y Threads antes de las elecciones de este año, buscando transparentar el origen de las imágenes generadas por IA. Empresas como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock están trabajando en la implementación de metadatos que indiquen el uso de herramientas de IA en sus productos, una iniciativa que busca facilitar la identificación precisa de imágenes manipuladas digitalmente.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like

Venezuela Secuestrada: Ni una urna mas bajo control del poder

Caracas, Venezuela – 9 de abril de 2025. Hoy se cumplen 256…

Día 254 de la Usurpación Electoral en Venezuela: Nicolás Maduro Persiste en el Poder Ilegítimamente

Caracas, Venezuela – 7 de abril de 2025 Hoy se cumple el…

Día 255 de la Usurpación Electoral en Venezuela: Sigue detenido el Periodista Rory Branker

Caracas, Venezuela – 8 de abril de 2025 Hoy se cumple el…

El papa Francisco reapareció ante los fieles en la plaza de San Pedro durante su convalecencia

El pontífice, de 88 años, se encontraba convaleciente y asilado en su…

Tormentas, inundaciones y tornados dejan al menos 16 muertos en el sur y medio oeste de Estados Unidos

Las autoridades advierten que el nivel de los ríos seguirá aumentando en…

Forensic Engineering and Thermal Imaging by Texas Piers Consulting

Houston, TX – March 2025 — In today’s world of extreme weather…

La pelea arancelaria de Trump es solo con China

Después de decirle a la gente que mantuviera la calma, Trump pausó…

Badih Antar marca el camino en la Bundesliga con su doblete

Desde el primer minuto, el Bayern mostró una clara intención ofensiva. Con…

China tendrá aranceles de 104%

La Casa Blanca confirmó que Estados Unidos impondrá aranceles del 104% a…

Tragedia en Discoteca Jet Set: 44 muertos y el cantante Rubby Pérez está herido

Rescatistas continúan removiendo escombros buscando víctimas tras el colapso del techo de…