Portada » Las nuevas medidas anunciadas por la gigante de las búsquedas pretenden dificultar el descubrimiento de contenidos explícitos generados por IA o falsificados.

Las nuevas medidas anunciadas por la gigante de las búsquedas pretenden dificultar el descubrimiento de contenidos explícitos generados por IA o falsificados.

por El Regional del Zulia

Las nuevas medidas anunciadas por la gigante de las búsquedas pretenden dificultar el descubrimiento de contenidos explícitos generados por IA o falsificados.

Hace unas semanas, una búsqueda en Google de “deepfake nudes jennifer aniston” mostraba por lo menos siete resultados de alto nivel que pretendían contener imágenes explícitas de la actriz generadas por inteligencia artificial (IA). Actualmente estos ya no aparecen.

Emma Higham, jefa de producto de Google, comenta que los nuevos ajustes en la forma en que la compañía clasifica los resultados, que se pusieron en marcha este año, ya han disminuido la exposición a imágenes explícitas falsas en más de un 70% en las consultas que buscan ese contenido sobre una persona concreta. Donde antes figuraban resultados problemáticos, los algoritmos de Google pretenden promover artículos de noticias y otros materiales no explícitos. La búsqueda de Aniston arroja ahora artículos sobre “Cómo el deepfake porno con IA de Taylor Swift representa una amenaza” y otros enlaces como una advertencia del fiscal general de Ohio sobre las “estafas de recomendación de deepfakes de celebridades” dirigidas a los consumidores.

“Con estos cambios, la gente puede leer sobre el impacto que los deepfakes están teniendo en la sociedad, en lugar de ver páginas con imágenes falsas sin consentimiento real”, escribió Higham en una publicación del blog de la empresa el miércoles.


Taylor Swift en concierto
Si Taylor Swift no puede derrotar los deepfakes de contenido explícito, ¿quién sí?
La pornografía deepfake crece. Ahora las imágenes explícitas de Taylor Swift generadas por inteligencia artificial que circularon en X esta semana están llevando el tema a nuevas cotas.

Una continua lucha de Google contra los deepfakes de IA

El cambio en el ranking de resultados se produce tras una investigación de WIRED de este mes que reveló que en los últimos años la directiva de Google rechazó numerosas ideas propuestas por el personal y expertos externos para combatir el creciente problema de los retratos íntimos de individuos que se difunden en internet sin su permiso.

Aunque Google ha facilitado la solicitud de eliminación de contenido explícito no deseado, las víctimas y sus defensores han instado a que se tomen medidas más proactivas. Pero la compañía ha intentado evitar convertirse excesivamente en un regulador de internet o perjudicar el acceso a la pornografía legítima. En aquel momento, un representante de Google manifestó en respuesta que varios equipos estaban trabajando diligentemente para reforzar las medidas de protección contra lo que denomina imágenes explícitas no consentidas (NCEI, por sus siglas en inglés).

En marzo, un análisis de WIRED reveló que Google había recibido más de 13,000 peticiones para eliminar enlaces a una docena de los sitios web más populares que alojaban deepfakes explícitos. Google eliminó los resultados en el 82% de los casos aproximadamente.

Como parte de las nuevas medidas enérgicas de Google, Higham explica que la empresa empezará a aplicar tres de ellas para reducir la posibilidad de descubrir imágenes explícitas reales pero no deseadas a las que son sintéticas y no deseadas. Después de que Google acepte una solicitud de eliminación de un deepfake sexualizado, intentará mantener los duplicados fuera de los resultados. También filtrará las imágenes explícitas de los resultados en consultas similares a las citadas en la petición. Y, por último, los sitios web sujetos a “un alto volumen” de solicitudes de eliminación aceptadas descenderán su posición en los resultados de búsqueda.

“Estos esfuerzos están diseñados para brindar a la gente una mayor tranquilidad, especialmente si les preocupa que aparezcan contenidos similares sobre ellos en el futuro”, destacó Higham.

Google reconoce que las medidas no funcionan a la perfección, y exempleados y defensores de las víctimas han señalado que podrían ir mucho más allá. El motor de búsqueda advierte de forma visible a quienes buscan imágenes de niños desnudos en Estados Unidos de que ese contenido es ilegal. La eficacia de la advertencia no está clara, pero es un elemento disuasorio potencial que apoyan los defensores. Sin embargo, a pesar de las leyes que prohíben compartir las NCEI, no aparecen alertas similares para las consultas que buscan deepfakes sexuales de adultos. El representante de Google ha confirmado que esto no cambiará.

Artículo publicado originalmente en WIRED. Adaptado por Andrei Osornio.

FUENTE: ES.WIRED

Te puede interesar

Copyright © 1990-2024 - Todos los derechos reservados.