NOTICIAS   PRIMERO   CABO   FEED DE HOY   ARCHIVO   EN   ES   RU   FR 
NOTICIAS / 2024 / 03 / 21 / CONSEJO TÉCNICO: IDENTIFICACIÓN DE IMÁGENES DEEPFAKE GENERADAS POR IA

Consejo técnico: identificación de imágenes deepfake generadas por IA

09:53 21.03.2024

La falsificación de IA se está convirtiendo rápidamente en uno de los mayores problemas que enfrentamos en línea. Las imágenes, los vídeos y el audio engañosos están proliferando como resultado del aumento y el mal uso de las herramientas generativas de inteligencia artificial. Con las falsificaciones profundas de IA surgiendo casi todos los días, que representan a todos, desde Taylor Swift hasta Donald Trump, cada vez es más difícil distinguir lo que es real de lo que no lo es. Los generadores de vídeo e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan a las personas sin ninguna habilidad técnica la creación de deepfakes: simplemente escriba una solicitud y el sistema la escupirá. Estas imágenes falsas pueden parecer inofensivas. Pero se pueden usar para llevar a cabo estafas y robo de identidad o propaganda y manipulación electoral.

En los primeros días de los deepfakes, la tecnología estaba lejos de ser perfecta y, a menudo, dejaba signos reveladores de manipulación. Los verificadores de datos han señalado imágenes con errores obvios, como manos con seis dedos o anteojos que tienen lentes de formas diferentes. Pero a medida que la IA ha mejorado, se ha vuelto mucho más difícil. Algunos consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en videos deepfake, ya no se mantienen, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y un destacado experto en IA generativa. Aún así, hay algunas cosas que buscar, dijo. Muchas fotos falsas de IA, especialmente de personas, tienen un brillo electrónico, "un tipo de efecto de suavizado estético" que deja la piel "con un aspecto increíblemente pulido", dijo Ajder. Sin embargo, advirtió que las indicaciones creativas a veces pueden eliminar este y muchos otros signos de manipulación de la IA. Compruebe la consistencia de las sombras y la iluminación. A menudo, el tema está claramente enfocado y parece convincentemente realista, pero los elementos del telón de fondo pueden no ser tan realistas o pulidos.

El intercambio de rostros es uno de los métodos deepfake más comunes. Los expertos aconsejan mirar de cerca los bordes de la cara. ¿El tono de la piel facial coincide con el resto de la cabeza o el cuerpo? ¿Los bordes de la cara están afilados o borrosos? Si sospecha que el video de una persona hablando ha sido manipulado, mire su boca. ¿Los movimientos de sus labios coinciden perfectamente con el audio? Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna manera no son consistentes con cómo se ven en la vida real? La empresa de ciberseguridad Norton dice que los algoritmos podrían no ser lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos para los dientes individuales podría ser una pista.

A veces el contexto importa. Tómate un tiempo para considerar si lo que estás viendo es plausible. El sitio web de periodismo Poynter informa que si ves a una figura pública haciendo algo que parece "exagerado, poco realista o sin carácter", podría ser un deepfake. Por ejemplo, ¿estaría el Papa realmente usando una chaqueta acolchada de lujo, como se muestra en una famosa foto falsa? Si lo hiciera, ¿no habría fotos o videos adicionales publicados por fuentes legítimas?

Otro enfoque es usar la IA para luchar contra la IA. Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o videos para dar una puntuación de confianza sobre si ha sido manipulada. FakeCatcher del fabricante de chips Intel utiliza algoritmos para analizar los píxeles de una imagen para determinar si es real o falsa. Hay herramientas en línea que prometen detectar falsificaciones si subes un archivo o pegas un enlace al material sospechoso. Pero algunos, como el autenticador de Microsoft, solo están disponibles para socios seleccionados y no para el público. Esto se debe a que los investigadores no quieren alertar a los malos actores y darles una mayor ventaja en la carrera armamentista de las falsificaciones profundas. El acceso abierto a las herramientas de detección también podría dar a las personas la impresión de que son "tecnologías divinas que pueden subcontratar el pensamiento crítico para nosotros" cuando, en cambio, debemos ser conscientes de sus limitaciones, dijo Ajder.

Dicho todo esto, la inteligencia artificial ha estado avanzando a una velocidad vertiginosa y los modelos de IA están siendo entrenados en datos de Internet para producir contenido cada vez de mayor calidad con menos defectos. Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año. Los expertos dicen que incluso podría ser peligroso poner la carga sobre la gente común para convertirse en Sherlocks digitales porque podría darles una falsa sensación de confianza a medida que se vuelve cada vez más difícil, incluso para los ojos entrenados, detectar falsificaciones profundas.

/ Jueves, 21 de marzo 2024 /

temas:  Internet  OpenAI  EE.UU.  Microsoft  IA (Inteligencia artificial)

VISTAS: 285


20/05/2024    info@iqtech.top
Todos los derechos sobre los materiales pertenecen a sus autores.
RSS