
"El video concluye enfatizando la importancia del pensamiento crítico y los esfuerzos colaborativos para combatir el aumento de la desinformación generada por IA".
Nota realizada con IA del vídeo en YouTube "La voz y el rostro de la desinformación: tecnologías que imitan y engañan" por Moisés Martín Betancor de la Biblioteca ULPGC.
Este artículo expone la preeminencia de imágenes falsas generadas por IA y los desafíos que plantean a nuestra comprensión de la verdad y la realidad. Examinamos ejemplos de imágenes fabricadas, analizamos las tecnologías detrás de su creación y consideramos sus implicaciones sociales, centrándonos especialmente en el impacto en la Generación Z.
Deepfakes inquietantemente realistas: ejemplos de la historia y el presente
El video comienza presentando cuatro imágenes: dos históricas y dos recientes. A pesar de la diferencia horaria, todas comparten un rasgo común: todas son falsas.
- Una fotografía inventada de Bayer, un fotógrafo que fingió su propia muerte para obtener fondos de investigación. Esta imagen, creada y difundida por el propio Bayer, engañó con éxito al público.
- Fotos de dos niñas jugando, que originalmente se creía que las mostraban interactuando con hadas. Este engaño, alimentado por el sistema de creencias que rodea a las hadas, no se cuestionó hasta décadas después, cuando una de las niñas admitió que las fotos eran una preparación.
- Una imagen del Papa Francisco con un traje de Balenciaga. Esta imagen, publicada inicialmente en una plataforma de redes sociales llamada Revit y luego difundida a otras redes, se volvió viral y muchos la creyeron.
- Fotografías de Donald Trump siendo arrestado. Estas imágenes, publicadas por un periodista, circularon ampliamente durante un período de tensión política.
Estos ejemplos resaltan la facilidad con la que las imágenes falsas pueden propagarse y ganar credibilidad, independientemente de su origen o sofisticación.
La tecnología detrás del engaño: redes generativas antagónicas (GAN)
El orador profundiza en la tecnología detrás de la creación de estas imágenes, centrándose en las redes generativas antagónicas (GAN).- Las GAN involucran dos sistemas de IA: un generador y un discriminador.
- El generador crea imágenes falsas, mientras que el discriminador intenta distinguir entre imágenes reales y falsas.
- Estos dos sistemas compiten constantemente, y el generador perfecciona sus técnicas para engañar al discriminador.
- Este proceso conduce a imágenes falsas cada vez más realistas y creíbles.
- Con el tiempo, el discriminador puede no identificar las imágenes generadas como falsas, lo que lleva a un engaño exitoso.
La naturaleza sofisticada de las GAN presenta un desafío significativo en la lucha contra la desinformación.
Consideraciones éticas y limitaciones de las herramientas de generación de imágenes de IA
A continuación, el video explora las consideraciones éticas involucradas en el uso de herramientas de IA para crear imágenes.- Varios generadores de imágenes de IA, como ChatGPT, tienen salvaguardas integradas contra la creación de imágenes de figuras públicas o la generación de contenido explícito, lo que muestra consideraciones éticas programadas en las herramientas.
- Midjourney, sin embargo, se presenta como un ejemplo de una herramienta con menos limitaciones; generó fácilmente imágenes que involucraban a figuras públicas sin restricciones éticas.
- El orador intenta replicar un meme que representa a dos adversarios políticos abrazándose, utilizando diferentes herramientas de IA. Los resultados demuestran los diferentes niveles de control y consideraciones éticas incorporadas en diferentes plataformas.
- Las limitaciones resaltan las dificultades para regular la creación y distribución de imágenes generadas por IA, a pesar de las preocupaciones éticas sobre el mal uso.
El impacto en el mundo real: de los memes a los delitos graves
El video presenta las consecuencias en el mundo real del fácil acceso a imágenes generadas por IA.- Las noticias de 2023 y 2024 ilustran el uso alarmante de la IA para crear imágenes explícitas no consensuadas de niños y adultos.
- La relativa facilidad para crear ese tipo de contenido en computadoras personales subraya la necesidad de fuertes salvaguardas y regulaciones.
- Un estudio de caso de una estafa financiera de 25 millones de dólares ejemplifica el uso de la IA para crear deepfakes realistas de video y audio.
- Esta estafa muestra el potencial de daño financiero y destaca la insuficiencia de los mecanismos de detección actuales.
La incapacidad de la IA para distinguir lo real de lo falso
El vídeo destaca un hecho especialmente preocupante: las dificultades de la IA para diferenciar las imágenes generadas por IA de las reales.- Se utilizan ejemplos de imágenes generadas por IA que otros sistemas de detección clasifican erróneamente como reales para subrayar el desafío de confiar en la tecnología para combatir la desinformación.
- Una imagen real se marca incorrectamente como generada por IA, lo que demuestra las limitaciones de los métodos de detección actuales.
- Una imagen de un flamenco, presentada en un concurso de fotografía, recibe premios a pesar de suscitar dudas sobre su autenticidad debido a una pose inusual.
- Para enfatizar aún más el problema, una imagen aparentemente manipulada presentada en un concurso de fotografía real ganó un premio, lo que indica la dificultad de distinguir entre la manipulación humana y la fotografía real sobre la creación de IA.
La falsificación más fácil de crear: clonación de voces con IA
El video se centra en la sorprendente facilidad con la que la IA puede clonar voces.- Usando una herramienta simple en línea, se puede usar un clip de audio de 15 segundos para generar deepfakes convincentes.
- El orador demuestra esto con un clip de audio personal, creando un mensaje de audio inventado.
- Esto resalta el peligro y la falta de sofisticación necesarios para producir audio falso convincente, capaz de causar un daño significativo.
El impacto en la Generación Z: una realidad impulsada socialmente
El orador explora cómo la generación nacida entre 2000 y 2010, la Generación Z, interactúa con la información en la era del contenido generado por IA.- Un estudio de 2023 sugiere que verificar la autenticidad de la información en línea es difícil para este grupo demográfico.
- La Generación Z a menudo encuentra información a través de las redes sociales y se basa en señales sociales para evaluar su validez.
- Evalúan la información en función del consenso social en lugar de verificar la credibilidad de la fuente.
- Los círculos sociales influyen fuertemente en sus creencias; si un grupo de confianza cree en algo, es más probable que adopte esa creencia.
- Una anécdota sobre la aceptación de una vacuna contra la COVID-19 por parte de una niña debido al apoyo de una celebridad muestra la fuerza de la influencia social.
- El estudio indica que las soluciones para combatir la desinformación deben ser sociales e involucrar a múltiples partes interesadas.
Conclusión: la necesidad urgente de pensamiento crítico y acción colectiva
El video concluye enfatizando la importancia del pensamiento crítico y los esfuerzos colaborativos para combatir el aumento de la desinformación generada por IA.- El orador destaca el papel fundamental que desempeñan quienes trabajan con información para identificar y exponer esas falsedades.
Publicar un comentario