Spanish English Eesti French German Italian Portuguese
Marketing Social
InicioCyberseguridadFraudeEstafas impulsadas por inteligencia artificial y cómo actuar

Estafas impulsadas por inteligencia artificial y cómo actuar

La Inteligencia Artificial (IA) se presenta como una herramienta versátil que puede asistir en diversas tareas, como redactar correos electrónicos o crear arte conceptual, pero también puede ser utilizada de manera fraudulenta para engañar a individuos vulnerables haciéndose pasar por un conocido en apuros. Es importante considerar medidas de precaución para evitar ser víctima de este tipo de engaños.

En los últimos años, se ha observado un notable incremento tanto en la calidad de los medios producidos, que abarcan desde texto hasta audio, imágenes y video, como en la accesibilidad económica y simplificada para su creación. Las herramientas que facilitan la creación de contenido, ya sea para artistas conceptuales en la elaboración de criaturas fantásticas o naves espaciales, o para personas no nativas que desean mejorar su inglés comercial, también pueden ser empleadas con intenciones maliciosas.

Las estafas tradicionales han evolucionado con la incorporación de tecnología de inteligencia artificial, lo que las hace más accesibles, económicas y persuasivas. No se debe subestimar la persistencia de estas prácticas fraudulentas, que continúan siendo un riesgo para los individuos.

Esta lista no pretende ser exhaustiva, sino que destaca algunos de los métodos más evidentes mediante los cuales la inteligencia artificial puede mejorar su rendimiento. A esta lista se incorporarán nuevas prácticas fraudulentas y consejos para prevenir ser impactados por ellas.

Clonación de voz de familiares y amigos

La clonación de voz de familiares y amigos es un fenómeno que plantea desafíos éticos y de privacidad en la era digital.

Las voces sintéticas han estado presentes durante varias décadas. Sin embargo, recientemente, los avances tecnológicos han posibilitado la creación de una voz artificial a partir de breves fragmentos de audio. Este avance implica que cualquier individuo cuya voz haya sido difundida en un contexto público, como en un reporte noticioso, un video en línea o en plataformas de redes sociales, se encuentra en riesgo de que su voz sea replicada de manera fraudulenta.

Los estafadores han empleado esta tecnología con el fin de crear versiones falsas creíbles de individuos cercanos. Es factible manipular sus palabras para fines fraudulentos, siendo común la elaboración de grabaciones de voz solicitando asistencia.

Un ejemplo de estafa común es cuando un individuo recibe una llamada telefónica de un número desconocido que simula ser un familiar en apuros. El estafador relata una situación urgente, como un robo durante un viaje, y solicita ayuda financiera a través de plataformas como Venmo. Esta estrategia fraudulenta puede adaptarse a diferentes escenarios, como problemas con un vehículo o gastos médicos no cubiertos por el seguro.

Este tipo de fraude ha sido perpetrado previamente utilizando la identidad del presidente Biden. Aunque se logró capturar a los responsables, se espera que los estafadores futuros actúen con mayor cautela.

Estrategias para combatir la clonación de voz

En primer lugar, no se moleste en intentar identificar una voz falsa, ya que cada día las técnicas de falsificación mejoran y existen numerosas estrategias para ocultar posibles deficiencias en la calidad. Incluso los especialistas pueden ser engañados.

Es importante considerar automáticamente como sospechosa cualquier comunicación proveniente de un número, dirección de correo electrónico o cuenta desconocida. En caso de que alguien afirme ser un amigo o familiar, se recomienda contactar a la persona de la manera habitual, aunque es probable que se confirme que se trata de una estafa.

Los estafadores suelen no persistir si son ignorados, a diferencia de un familiar que probablemente lo hará. Por lo tanto, es recomendable archivar un mensaje sospechoso mientras se reflexiona sobre él.

Phishing y spam personalizados vía correo electrónico y mensajería

La recepción de correos no deseados es común, sin embargo, la inteligencia artificial facilita el envío de correos masivos personalizados. Debido a las frecuentes filtraciones de datos, es probable que gran parte de su información personal esté accesible.

La recepción de correos electrónicos fraudulentos que solicitan hacer clic en un enlace para visualizar una factura, junto con archivos adjuntos que generan temor, puede parecer una tarea sencilla. Sin embargo, al proporcionar algo de contexto, estos correos adquieren credibilidad al incorporar información sobre ubicaciones, compras y hábitos recientes, simulando la apariencia de una persona real o un problema genuino. Con la posesión de ciertos datos personales, un modelo de lenguaje puede personalizar de manera rápida y eficiente estos correos genéricos para enviarlos a miles de destinatarios en poco tiempo.

De esta manera, el mensaje que anteriormente se redactaba como «Estimado cliente, adjunto su factura» ha evolucionado hacia un tono más personalizado y directo, como por ejemplo: «Hola, Doris. Soy parte del equipo de promociones de Etsy y me complace informarte que un artículo que has estado visualizando recientemente está ahora disponible con un descuento del 50%. Además, si utilizas el siguiente enlace para obtener el descuento, el envío a tu domicilio en Bellingham será gratuito». A pesar de su simplicidad, este ejemplo ilustra claramente el cambio en la estrategia de comunicación. Al proporcionar un nombre real, un patrón de compra identificable, una ubicación general, entre otros datos, la interpretación del mensaje se vuelve menos evidente de manera repentina.

En última instancia, esta práctica continúa siendo considerada como correo no deseado. Anteriormente, la creación de este tipo de mensajes personalizados era realizada por individuos mal pagados en centros de contenido en el extranjero. En la actualidad, esta tarea puede ser llevada a cabo a gran escala por un profesional con un Máster en Derecho (LLM) que posea habilidades superiores en redacción.

Como combatir el correo electrónico no deseado

La vigilancia es una herramienta fundamental para combatir el spam, tanto en su forma tradicional como en la generada por inteligencia artificial. En la vida real, es difícil distinguir entre texto generado por IA y texto escrito por humanos, una habilidad que pocos poseen y que los modelos de IA actuales no han logrado desarrollar, a pesar de las afirmaciones de algunas empresas y servicios.

A pesar de las mejoras en el texto, las estafas continúan enfrentando el desafío principal de persuadir al receptor a abrir archivos adjuntos o enlaces sospechosos. Es fundamental abstenerse de hacer clic o abrir cualquier contenido a menos que se tenga total certeza sobre la autenticidad e identidad del remitente. En caso de duda, se recomienda abstenerse de interactuar con el contenido y, si es posible, consultar a una persona experta para que revise el mensaje antes de proceder.

Fraude de identidad y verificación de identidad falsa

El fraude de identidad y la falsificación de verificación de identidad son prácticas delictivas que afectan tanto a individuos y organizaciones.

En los últimos años, se ha observado un aumento significativo en la cantidad de violaciones de datos, lo cual ha generado una amplia circulación de información personal en entornos digitales. La adopción de medidas de seguridad online, como la actualización de contraseñas y la activación de la autenticación multifactor, puede contribuir a mitigar parte de los riesgos asociados a esta problemática. No obstante, es importante considerar que la inteligencia artificial generativa podría representar una nueva y seria amenaza en este ámbito.

En la actualidad, la abundancia de información personal disponible en internet, incluyendo grabaciones de voz, facilita la creación de un personaje de inteligencia artificial que pueda simular la voz y acceder a datos utilizados para verificar la identidad de una persona.

En el caso de enfrentar dificultades para acceder a un sistema, presentar configuraciones incorrectas en una aplicación de autenticación o extraviar un dispositivo móvil, ¿cuál sería su curso de acción? Comúnmente, se recurre a contactar al servicio de atención al cliente, quienes proceden a autenticar su identidad mediante información básica como la fecha de nacimiento, número telefónico o número de Seguridad Social. Incluso técnicas más sofisticadas como la verificación mediante fotografías autorretrato están siendo vulneradas con mayor facilidad.

El agente de servicio al cliente, según lo que se conoce, también puede ser una inteligencia artificial. Existe la posibilidad de que requiera el uso de un tratamiento formal y conceda todos los privilegios que se obtendrían al comunicarse con un agente real. Las funciones que pueden desempeñar desde esta posición son diversas, aunque no todas son favorables.

La facilidad con la que los estafadores pueden llevar a cabo ataques de suplantación de identidad de manera extensa y repetida es un aspecto preocupante, más allá de la verosimilitud de dicha suplantación. Anteriormente, este tipo de ataque solía ser caro y laborioso, limitándose a objetivos de alto valor como individuos adinerados y altos ejecutivos. Sin embargo, en la actualidad, es posible implementar un proceso que genere numerosos agentes de suplantación de identidad con una supervisión mínima. Estos agentes podrían contactar de manera autónoma a los servicios de atención al cliente de todas las cuentas conocidas de un individuo, e incluso establecer nuevas cuentas fraudulentas. Basta con que unos pocos de estos intentos tengan éxito para justificar el coste total del ataque.

Cómo luchar contra el fraude de identidad

Antes de la llegada de las inteligencias artificiales que han fortalecido las acciones de los estafadores, es recomendable recurrir a cursos de Ciberseguridad online o presenciales para particulares. Los datos personales una vez expuestos, no pueden ser recuperados, al igual que no se puede volver a colocar la pasta de dientes en el tubo. Sin embargo, es fundamental garantizar que las cuentas estén debidamente resguardadas contra las amenazas más evidentes.

La autenticación multifactor es fundamental para la seguridad de las cuentas en línea. Es crucial para recibir alertas inmediatas sobre actividades sospechosas, como intentos de inicio de sesión no autorizados o cambios de contraseñas. Estas notificaciones no deben ser ignoradas ni marcadas como correo no deseado, incluso si se reciben con frecuencia.

Fraude de identidad y verificación de identidad falsa

La utilización de tecnología de inteligencia artificial para crear videos falsos, conocidos como deepfakes, ha dado lugar a situaciones de chantaje.

La posibilidad de chantaje a través de imágenes falsas generadas por inteligencia artificial emergente se considera una de las formas más alarmantes de estafa. Este riesgo se atribuye al rápido avance en el desarrollo de modelos de imágenes generativas. En este sentido, se han creado flujos de trabajo especializados en la generación de imágenes de vanguardia, que van más allá de la renderización de cuerpos desnudos, permitiendo la superposición de estos en cualquier rostro disponible en una fotografía. Esta tecnología ya está siendo utilizada en diversos contextos.

Una consecuencia no deseada que surge es la propagación de la estafa conocida como «porno de venganza», la cual puede ser más precisamente descrita como la distribución no consensuada de imágenes íntimas. Esta práctica, similar al fenómeno de «deepfake», puede resultar complicada de reemplazar con un término alternativo. La divulgación de imágenes privadas de una persona, ya sea a través de hackeo informático o por parte de un ex pareja vengativo, puede dar lugar a situaciones de chantaje por parte de terceros que amenazan con difundirlas ampliamente a menos que se realice un pago.

La inteligencia artificial mejora el engaño al eliminar la necesidad de contar con imágenes íntimas reales en primer lugar. Es factible insertar el rostro de cualquier individuo en un cuerpo generado por inteligencia artificial, aunque la veracidad de los resultados no siempre sea convincente. Sin embargo, esta manipulación visual puede ser suficiente para engañar a personas, especialmente si la imagen está pixelada, tiene baja resolución o está parcialmente distorsionada. Estas condiciones son suficientes para intimidar a alguien y coaccionarlo a realizar un pago para mantener la situación en secreto. Es importante tener en cuenta que, al igual que en la mayoría de los casos de chantaje, es improbable que el primer pago sea el último.

Cómo luchar contra los deepfakes generados por IA

Lamentablemente, nos encaminamos hacia un mundo en el cual imágenes falsas de desnudos de casi cualquier individuo estarán accesibles a solicitud. Aunque resulte aterrador, inusual y repugnante, es un hecho consumado.

La situación actual no es satisfactoria para nadie, a excepción de individuos malintencionados. Sin embargo, existen aspectos favorables para todas las posibles víctimas. Aunque pueda resultar insuficiente como consuelo, es importante tener en cuenta que las imágenes en cuestión no pertenecen realmente a la persona afectada, y no se requiere la utilización de fotografías reales de desnudos para corroborarlo. Los modelos de imágenes empleados pueden generar representaciones de cuerpos con cierto grado de realismo, pero al igual que otras inteligencias artificiales generativas, su conocimiento se limita a su entrenamiento previo. Por consiguiente, las imágenes falsas carecerán de rasgos distintivos, lo que podría evidenciarse en errores evidentes en otros aspectos.

Aunque es probable que la amenaza nunca disminuya por completo, cada vez existen más recursos disponibles para las víctimas. Estas pueden recurrir legalmente a los proveedores de servicios de internet para solicitar la eliminación de imágenes no deseadas, así como para impedir que los estafadores accedan a plataformas donde las publican. Conforme la magnitud del problema aumenta, también se incrementarán los mecanismos legales y privados destinados a combatirlo.

En caso de ser víctima de esta situación, es recomendable informar a las autoridades policiales. Este tipo de incidente no solo constituye una estafa, sino que también implica acoso. Aunque no se puede exigir que la policía realice labores de investigación online para identificar a los responsables, en ocasiones estos casos se resuelven o los estafadores se ven intimidados por las denuncias presentadas ante su proveedor de servicios de Internet o el administrador del foro.

RELACIONADOS

SUSCRÍBETE A TRPLANE.COM

Publica en TRPlane.com

Si tienes alguna historia interesante sobre transformación, IT, digital, etc con cabida en TRPlane.com por favor envíanosla y la compartiremos con toda la Comunidad

MÁS PUBLICACIONES

Activar Notificaciones OK No gracias