Usó inteligencia artificial para robar 600.000 dólares en segundos: ¿Cómo hizo?
El particular episodio tuvo lugar en China. A pesar de que la víctima realizó la denuncia a la Policía Cibernética, todavía no pudo recuperar su dinero.
En tiempos de Inteligencia Artificial (IA) hay varios que aprovechan la oportunidad y "hacen su negocio", como un estafador chino que utilizó esto para hacerse pasar por un amigo de confianza de un empresario y convencerle de que le entregara millones de yuanes.
El asunto es que la víctima, de apellido Guo, recibió el mes pasado una videollamada de una persona que parecía y sonaba como un amigo cercano. Pero la persona que llamaba era en realidad un estafador que “utilizaba tecnología inteligente de inteligencia artificial para cambiar su rostro” y su voz, según un artículo publicado por un portal de medios de comunicación asociado al gobierno de la ciudad meridional de Fuzhou.
Guo fue convencido para que transfiriera 4,3 millones de yuanes (609.000 dólares) después de que el estafador afirmara que otro amigo necesitaba que el dinero saliera de la cuenta bancaria de una empresa para pagar la garantía de un concurso público.
El estafador pidió el número de la cuenta bancaria personal de Guo y luego afirmó que se había transferido una suma equivalente a esa cuenta, enviándole una captura de pantalla de un registro de pago fraudulento.
Inteligencia Artificial: fraude descubierto
Sin comprobar que había recibido el dinero, Guo envió dos pagos desde la cuenta de su empresa por un total de la cantidad solicitada. “En ese momento, comprobé la cara y la voz de la persona que me llamaba por vídeo, así que bajé la guardia”, afirma Guo.
Sólo se dio cuenta de su error después de enviar un mensaje al amigo cuya identidad había sido robada, que no tenía conocimiento de la transacción.
Guo avisó a la policía, que notificó a un banco de otra ciudad que no procediera con las transferencias, y consiguió recuperar 3,4 millones de yuanes. Añadió que se estaba intentando recuperar el resto de los fondos, pero no identificaba a los autores de la estafa.
Desde que la empresa estadounidense OpenAI lanzó en noviembre ChatGPT, un chatbot que imita el habla humana, la atención se ha centrado en los peligros potenciales de la innovadora tecnología de IA.
Planes de China
En tanto, China anunció ambiciosos planes para convertirse en líder mundial de la IA en 2030, y una serie de empresas tecnológicas como Alibaba, JD.com, NetEase y ByteDance, matriz de TikTok, se apresuraron a desarrollar productos similares.
ChatGPT no está disponible en China, pero el software estadounidense está adquiriendo una base de usuarios chinos que utilizan redes privadas virtuales para acceder a él con el fin de escribir redacciones y estudiar para los exámenes. Pero también se utiliza con fines más nefastos.
Este mes, la policía de la provincia noroccidental de Gansu informó de que se habían tomado “medidas coercitivas” contra un hombre que utilizó ChatGPT para crear una noticia falsa sobre un accidente de autobús mortal que se difundió ampliamente en las redes sociales.
La ley que regula los deepfakes, que entró en vigor en enero, prohíbe el uso de esta tecnología para producir, publicar o transmitir noticias falsas. Y un proyecto de ley propuesto el mes pasado por el regulador de Internet de Pekín exigiría que todos los nuevos productos de IA se sometieran a una “evaluación de seguridad” antes de ser lanzados al público.