Por Hannah Pérez  

La gigante de videos está introduciendo nuevas etiquetas para advertir a los espectadores sobre contenido generado por IA a medida que se esfuerza para frenar los deepfakes. 

***

  • YouTube anunció nuevas políticas para el empleo responsable de IA generativa
  • Introducirá etiquetas y exigirá que creadores de contenido identifiquen videos creados con IA
  • Quienes violen las reglas podrían enfrentar sanciones, incluida desmonetización
  • Las nuevas normas, que buscan frenar los deepfakes, se implementarán en 2024

YouTube está tomando medidas para controlar el uso de inteligencia artificial (IA) en el contenido que circula en su plataforma. La plataforma de redes sociales centrada en video publicó el martes nuevas políticas para el uso responsable de la IA generativa.

Como parte de las nuevas pautas, YouTube requerirá que los creadores de contenido identifiquen los videos generados con ayuda de herramientas de IA e introducirá nuevas etiquetas para identificar el contenido. La empresa también se está encargando de tomar medidas enérgicas contra los clones de IA de los músicos. 

En específico, el requisito de divulgación exigirá a los creadores que “revelen cuándo han creado contenido alterado o sintético que sea realista, incluido el uso de herramientas de inteligencia artificial“. La plataforma advirtió que aquellos que no cumplan con la nueva política podrían estar sujetos a sanciones como la eliminación de contenido y la suspensión del programa de monetización.

Como parte del esfuerzo, YouTube está introduciendo un nuevo sistema de etiquetas para informar a los espectadores cuando el contenido que están viendo sea generado por IA. Las etiquetas aparecerán en las descripciones de los videos y encima de los videos en el caso de material confidencial o contenido sobre temas sensibles.

YouTube pondrá freno a los deepfakes

La circulación de contenido audiovisual falso generado por IA ha sido uno de los efectos del acelerado avance de este año de la IA generativa, una tecnología que permite generar textos, imágenes, audio y otro contenido multimedia a partir de indicaciones humanas que puede parecer muy convincente.

Posiblemente el ejemplo más conocido de este desafío actual es “Heart on My Sleeve“, una canción con voces creadas por IA que pretender ser Drake y The Weeknd. El video fue retirado de los servicios de streaming después de que Universal Music Group, la compañía discográfica de ambos artistas, criticara la canción por “infringir contenido creado con IA generativa”.

Sin embargo, los oyentes aún pueden acceder a la canción en plataformas como YouTube. Al menos por ahora, ya que las nuevas políticas de la plataforma posiblemente signifiquen la eliminación de este y otros videos similares.

La plataforma propiedad de Google dijo en una publicación de blog que permitirá a las personas solicitar la eliminación de videos que “simulen a un individuo identificable, incluido su rostro o su voz a través del formulario de solicitud de privacidad existente. En otras palabras, permitirá que las personas se quejen sobre los deepfakes en la plataforma.

Haremos posible solicitar la eliminación de contenido generado por IA u otro contenido sintético o manipulado que simule a un individuo identificable, incluido su rostro o su voz.

El proceso podría resultar en que el video deepfake en cuestión desaparezca. Sin embargo, la compañía aclaró que no se eliminará en todos los casos y que “analizará una variedad de factores al evaluar estas solicitudes“, incluido si el contenido es una parodia o una sátira y si el individuo es un funcionario público o “persona notoriamente conocida”.

Nueva política de IA entrará en vigor en 2024

Uno de los objetivos centrales es implementar barandillas para evitar la potencial divulgación de noticias o información falsa, por lo que pondrán especial atención cuando el contenido “trate temas delicados, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos“.

No está claro cómo hará YouTube para reconocer efectivamente el contenido generado por IA para hacer que se cumplan las nuevas políticas. De acuerdo con un informe de The Verge que cita a un portavoz, la empresa está invirtiendo actualmente en herramientas que les ayuden a “detectar y determinar con precisión” si se trata de videos sintéticos o alterados.

YouTube está comenzando a probar los nuevos controles con un grupo seleccionado de sellos y distribuidores antes de una implementación más amplia el año que viene. También dijo que el grupo selecto estaba participando en los “primeros experimentos musicales de IA” no especificados que implican el uso de herramientas de IA generativa para producir contenido.

Se espera que los cambios entren en vigor en 2024. Mientras tanto, no es la única de redes sociales que está actualizando sus políticas para hacer frente al uso cada vez más extendido de la tecnología de IA.

La semana pasada, Meta, la empresa matriz de Facebook e Instagram, dijo que exigiría a los anunciantes políticos que reconocieran cuándo habían utilizado IA en los anuncios de sus plataformas. La compañía detalló que los anunciantes, por ejemplo, tendrán que revelar cuándo se utiliza contenido de imagen, video o audio para representar a una persona real haciendo algo que no dijo o hizo.


Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash

ADVERTENCIA: Este es un artículo de carácter informativo. DiarioBitcoin es un medio de comunicación, no promociona, respalda ni recomienda ninguna inversión en particular. Vale señalar que las inversiones en criptoactivos no están reguladas en algunos países. Pueden no ser apropiadas para inversores minoristas, pues se podría perder el monto total invertido. Consulte las leyes de su país antes de invertir.