8.9 C
Comodoro Rivadavia
viernes, abril 18, 2025
8.9 C
Comodoro Rivadavia

Chubut

Advierten sobre estafas virtuales con uso de inteligencia artificial

El fiscal Fernando Rivarola alertó sobre la clonación de voces e imágenes para cometer delitos. Aunque no es una práctica extendida, la tecnología ya está siendo utilizada con fines delictivos.

 

El fiscal general Fernando Rivarola, a cargo de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut, advirtió sobre el uso creciente de herramientas de inteligencia artificial generativa para cometer estafas virtuales. Se trata de tecnologías que permiten clonar voces e imágenes de personas reales, incluso de figuras públicas o familiares, con el objetivo de engañar y obtener beneficios económicos.

Rivarola explicó que si bien este tipo de delitos no se encuentra generalizado por el momento, debido al alto costo operativo que representa el uso de este software para los delincuentes, ya se han detectado avances concretos en la modalidad.

“El uso de IA no solo hace más fácil y creíble la estafa, sino que también complica la investigación, porque la prueba digital puede ser manipulada”, expresó.

Desde la unidad fiscal especializada se vienen desarrollando campañas de concientización y prevención, ante la evolución de las estafas en línea y el constante avance de la tecnología.

Redes sociales, un blanco fácil
El fiscal señaló que las redes sociales son una fuente directa de datos para los estafadores: “Es muy fácil acceder a nuestras voces e imágenes en redes. Por eso, ahora no solo hay que desconfiar de los mensajes de texto o audios, sino también de las imágenes y videos que recibimos”, subrayó.

Actualmente, existen casos donde la IA es utilizada para suplantar la identidad de familiares o conocidos a través de audios o videos falsos, solicitando dinero de manera urgente.

Recomendaciones para detectar contenido falso
Rivarola recomendó prestar atención a detalles técnicos para identificar este tipo de fraudes. En videos, observar la sincronización entre labios y voz puede ser clave. En audios, analizar la calidad del sonido y cómo se pronuncian ciertas palabras puede ayudar a detectar anomalías.

Aunque el uso de IA para estafas aún no es masivo en Argentina, se insiste en minimizar la exposición pública de datos personales, ya que cuanto más material exista en línea, más fácil es para los ciberdelincuentes crear réplicas falsas.

La clonación de voces requiere al menos unos segundos de grabación y la de imágenes, varias fotos. Por eso, reducir la cantidad de contenido personal expuesto en redes puede ser un primer paso para protegerse de esta nueva forma de delito.

Noticias relacionadas

Últimas noticias