Google cambió silenciosamente las políticas de la plataforma para permitir que los usuarios realicen nuevos tipos de denuncias.
02 de julio 2024, 08:17hs
¿Por qué la IA generativa produce contenido que estorba?
Tal como hemos revisado en Inteligencia artificial generativa: los miedos y las esperanzas que asoman a la espera de las regulaciones, estos avances —que tienen a ChatGPT como paradigma— traen consigo encantos y también una serie de riesgos asociados a su uso. Entre estos últimos se destaca la problemática de la desinformación, además de posibles difamaciones con deepfakes.
Leé también: Europa quiere que la publicación de deepfakes pornográficas se penalice como un acto delictivo
Las deepfakes son falsificaciones profundas. Pueden ser fotografías, videos y/o audios, en ocasiones combinados entre sí. Debido a su alto grado de realismo, podrían ser tomados como reales. Un ejemplo recordado es la imagen que circuló en las redes que mostraba al Papa Francisco vistiendo una larga campera blanca. Muchos creyeron que era real, hasta que su creador —que usó un sistema relativamente simple de IA generativa— reconoció el origen de la imagen.
El plan de YouTube para frenar al contenido no consentido generado con inteligencia artificial
Según informa TechCrunch, el cambio silencioso en las políticas de uso de YouTube se concretó el mes pasado. ¿Qué cambia para los usuarios del portal? La revisión permite a los usuarios solicitar la eliminación de contenido generado con IA que simule su voz o su rostro.
Siguiendo a la fuente, hay que tener en cuenta que el simple hecho de enviar la solicitud de eliminación no significa necesariamente que el contenido se eliminará. Al respecto, YouTube advierte que emitirá su propio juicio sobre la queja basándose en una variedad de factores. Por ejemplo, habrá salvedades, como las parodias o las sátiras. También contemplarán la relevancia pública del contenido denunciado.
Leé también: Cómo funciona la nueva opción de YouTube que usa IA para crear fondos instrumentales
Además, YouTube señala le dará a quien subió el contenido 48 horas para actuar sobre la queja. Si se elimina antes de que transcurra ese tiempo, se cierra la denuncia. De lo contrario, el responsable de la plataforma iniciará una revisión.
Inteligencia artificial, dilema para los gigantes de la tecnología
Sabemos que Google no está en contra del uso de la IA: de hecho, es uno de los animadores del sector, que ha reaccionado al boom de ChatGPT con su propio modelo, Gemini.
YouTube —que es parte integral de Alphabet y Google— tampoco es ajeno a la movida. Tal como observa TechCrunch, el portal de videos ha experimentado con su propia IA generativa, con una herramienta que resume comentarios, otra para crear fondos musicales, y una para hacer preguntas sobre un video u obtener recomendaciones. En ese marco, el gigante de las búsquedas advirtió anteriormente que simplemente etiquetar el contenido de IA como tal no necesariamente lo protegerá de la eliminación, ya que aún tendrá que cumplir con las pautas de la comunidad.