Una firma multimillonaria en Hong Kong perdió 200 millones de HKD (dólar de Hong Kong) equivalentes a casi 26 millones de dólares, después de que un deepfake del Director Financiero lograra engañar a un empleado para autorizar una transferencia fraudulenta.
Este incidente marca un hito al ser una de las primeras veces que se involucran múltiples identidades falsificadas creadas con inteligencia artificial (IA) en una sola estafa, complicando aún más la tarea de distinguir entre lo real y lo falso en el mundo.
La estafa se llevó a cabo mediante una videoconferencia, en la que el empleado fue convencido por varios participantes generados por IA, incluyendo una recreación convincente del CFO (Chief Financial Officer o Director de finanzas), lo que llevó a bajar su guardia.
Según reportes de medios locales, este incidente no es aislado, y la Oficina de Ciberseguridad, Tecnología y Delincuencia de Hong Kong ha observado un incremento en fraudes similares.
El superintendente, Baron Chan, detalló la sofisticación creciente de estos ataques, enfatizando la dificultad de protegerse contra ellos.
La tecnología deepfake ha demostrado su capacidad para generar contenido falso indistinguible de la realidad, lo que resalta la urgencia de mejorar las medidas de seguridad y regulaciones en torno a la IA.
La proliferación de deepfakes no se limita a fraudes financieros. En New Hampshire, Estados Unidos, personas recibieron llamadas falsas usando la voz del presidente de ese país, Joe Biden, y en Baltimore, se generó un clip de audio falso del director de un instituto con declaraciones racistas.
Además, la cantante, Taylor Swift, fue objetivo de creaciones deepfake con contenido explícito. Estos incidentes subrayan la capacidad de esta tecnología para influir en la política, socavar reputaciones y generar desinformación.
Expertos, como el profesor Hany Farid de la Universidad de California, Berkeley, señalan la creciente dificultad para detectar este tipo de contenido.
Él también cuestiona la falta de regulaciones que enfrentan las empresas que desarrollan estas tecnologías. La necesidad de legislación que evolucione al ritmo de estos avances es evidente, así como la implementación de métodos de detección más eficaces y accesibles.
Con la inteligencia artificial avanzando a pasos agigantados, la sociedad se ve ante el reto de adaptarse y encontrar formas de coexistir de manera segura y ética con estas tecnologías.
Los incidentes recientes recalcan la importancia de una vigilancia y escepticismo saludables ante el contenido digital, especialmente en lo que respecta a figuras públicas y decisiones críticas.
El caso de la empresa en Hong Kong y otros similares demuestran la vulnerabilidad ante la manipulación digital y la necesidad urgente de actuar para protegerse contra estas amenazas emergentes.
Cómo reconocer un deepfake o información falsa
Según el centro cibernético de Kaspersky, reconocer un ‘deepfake’ puede ser complicado ya que las técnicas de manipulación digital evolucionan constantemente. Estos son algunos de los consejos que puedne funcionar para evitar ser víctima de estas suplantaciones:
-Anomalías faciales y corporales: es clave buscar incoherencias en los movimientos faciales, expresiones o movimientos corporales que parezcan extraños o poco naturales. Por ejemplo, desalineaciones en los ojos, la boca u otras partes de la cara.
-Sincronización labial y expresiones: se debe comprobarque las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas con el contexto del video.
-Iluminación y sombreado: evaluar si la iluminación del rostro corresponde con el entorno. Las incoherencias en la iluminación pueden indicar manipulación.
-Conciencia y educación: tener interés sobre este tema y aprender sobre las tecnologías de manipulación digital.
-Cuidado con los sitios web falsos: si hay dudas sobre un sitio web o una aplicación, no se deben escribir datos ni realizar pagos.
Si bien WhatsApp tiene un sistema de seguridad para prevenir estos casos, es importante saber cómo proceder rápidamente.
WhatsApp es la aplicación de mensajería más utilizada por los argentinos y es altamente popular en muchos países del mundo. Por su diseño sencillo, ágil funcionamiento y nuevas funciones, hacen a la app una forma sencilla de comunicarse con amigos, familiares o incluso compañeros del trabajo.
Sin embargo, con el avance de la tecnología, también aparecen los delincuentes cibernéticos que están al acecho de un mínimo descuido para el hackeo de cuentas de WhatsApp y así continuar con sus estafas. Esto es lo que debés hacer si detectás movimientos extraños en tu celular.
Informate más
whatsapp – apple.jpg
Freepik.
Cómo hackean WhatsApp
Las redes Wi-Fi públicas pueden ser un riesgo significativo para la seguridad de tu información personal, ya que suelen tener una baja calidad de cifrado. Al conectarte a una red Wi-Fi pública, tus datos de comunicación pueden ser vulnerables a la interceptación por parte de otros usuarios conectados a la misma red. Además, los hackers pueden crear redes Wi-Fi falsas que parecen legítimas pero están diseñadas para capturar datos sensibles.
En cuanto a la duplicación de cuentas de WhatsApp en varios dispositivos, la plataforma está diseñada para evitar este problema. Cuando activás tu cuenta en un nuevo celular, se requiere una confirmación mediante un código enviado por SMS al número asociado. Esta acción desactiva la cuenta en el dispositivo anterior, garantizando que solo recibas mensajes en el nuevo móvil. Si ves un mensaje indicando que tu número está registrado en otro dispositivo, es una señal de que alguien está intentando acceder a tu cuenta.
Pasos a seguir te me hackearon en WhatsApp
Desinstalá y reinstalá WhatsApp: Este proceso inicial te permitirá iniciar el registro desde cero.
Ingresá el código de verificación: Una vez que recibas el código en tu teléfono, introducilo en la aplicación para confirmar que sos el propietario de la cuenta.
Verificación en dos pasos: Si tenías esta opción activada, vas a tener que esperar siete días para recuperar el acceso sin el PIN. Si recordás el PIN, podés introducirlo y recuperar la cuenta de inmediato.
Es crucial que además notifiques a tus contactos sobre la situación para evitar que los hackers accedan a su información y realicen estafas a tu nombre.
TikTok sufrió un nuevo revés este lunes en un tribunal federal estadounidense, en sus esfuerzos por frenar una ley que obliga a sus propietarios chinos a vender la aplicación o enfrentarse a una prohibición en EEUU.
Tres jueces del Tribunal de Apelaciones del Distrito de Columbia, escucharon a TikTok, ByteDance y a un grupo de usuarios que reclaman que la prohibición viola el derecho a la libertad de expresión garantizado por la Constitución estadounidense.
Desde que en abril el Congreso de Estados Unidos aprobó la ley, el destino de TikTok en el país norteamericano se convirtió en un tema importante del debate político. El candidato republicano a la presidencia, Donald Trump, se opone a cualquier veto a la muy popular plataforma, luego de que él mismo intentara prohibirla en 2020, al final de su mandato.
tiktok
Una prohibición provocaría probablemente una fuerte reacción de Pekín y tensaría aún más las relaciones entre Estados Unidos y China.
El presidente Joe Biden, por su parte, firmó una ley que da plazo hasta enero a la red social para que deje de ser propiedad de una empresa china, en caso contrario, sería prohibida. Su vicepresidenta, Kamala Harris, es la actual candidata demócrata a la Casa Blanca.
ByteDance, la empresa matriz de TikTok, declaró que no tiene intención de desprenderse de su preciada aplicación. La acción legal es, por lo tanto, su única opción para sobrevivir en Estados Unidos. En sus preguntas, los jueces cuestionaron este argumento al compararlo con casos anteriores de la jurisprudencia estadounidense.
Entre ellos, uno de la década de 1980 en el que se consideró legal el cierre de la Oficina de Información Palestina en Washington porque estaba respaldada por la OLP, organización oficialmente designada como grupo terrorista. “La mera propiedad extranjera no puede ser una justificación porque pondría de cabeza a la Primera Enmienda“, replicó el abogado de TikTok.
Una prohibición provocaría probablemente una fuerte reacción de Pekín y tensaría aún más las relaciones entre Estados Unidos y China. Los jueces se pronunciarán sobre el caso en las próximas semanas o meses, pero sea cual sea su decisión, es probable que se lleve a cabo ante el Tribunal Supremo de Estados Unidos.
El enfrentamiento de posturas
TikTok afirma que “la Constitución está de su lado” y añade que la ley silenciaría las voces de 170 millones de estadounidenses. “No hay duda de que la ley cerrará TikToK el 19 de enero de 2025“, afirma la demanda de la compañía, “silenciando a aquellos que usan la plataforma para comunicarse de formas que no pueden replicarse en otros lugares”.
El Gobierno estadounidense replica que la ley trata cuestiones de seguridad nacional, no de libertad de expresión, y que ByteDance no puede ampararse en derechos protegidos por la Constitución. Estados Unidos estima que ByteDance puede acceder a las peticiones del gobierno chino para obtener datos sobre usuarios estadounidenses y que cede a las presiones para censurar o promover determinados contenidos en la plataforma.
Cúando comenzó el conflicto
Los decretos de 2020 que prohibían TikTok, del expresidente Trump, fueron bloqueados por un juez federal, que alegó una posible violación del derecho a la libertad de expresión. Desde entonces, el magnate republicano, muy molesto con Meta y las otras grandes plataformas que le prohibieron temporalmente sus cuentas por incitar a la violencia tras el asalto al Capitolio en 2021, ha cambiado de opinión.
Harris tiene a su vez presencia en TikTok y ha abrazado las redes sociales como medio de comunicación con los votantes jóvenes. La nueva ley firmada por Biden fue diseñada para superar los obstáculos legales, pero algunos expertos creen que a la Corte Suprema de Justicia le resultará difícil considerar que las preocupaciones de seguridad nacional pesan más que la protección de la libertad de expresión.
Por primera vez, una IA logró reprogramarse sola, consiguiendo evadir la autoridad del ser humano y alterando su propio código.
El sistema The I.A Scientist revolucionó a la comunidad científica, luego de poder salirse de las restricciones que sus creadores le habían impuesto, rompiendo con la mínima probabilidad de que esto sucediera. Esto provocó que la preocupación alrededor del uso de la Inteligencia artificial se acreciente, debido a los posibles riesgos que pueden desarrollarse.
Esta inteligencia artificial pertenece a Sakana A.I, empresa japonesa, y estaba diseñada para colaborar con la creación y la edición de textos, además de la revisión. Su fin era perfeccionar y reducir el tiempo de este tipo de tareas, asistiendo al ser humano en determinadas operaciones.
Informate más
Pero quienes estaban experimentando con el sistema notaron que el mismo estaba alterando su propio código, y no solo eso, sino que también había decidido por sí misma extender el tiempo límite que se le asignaba para llevar a cabo sus tareas.
Las alarmas se encendieron y el equipo de la empresa japonesa continúa investigando cómo fue que The I.A Scientis logró esquivar sus órdenes y reconfigurar su programación. Asimismo, decidieron indagar qué problemas puede llegar a traer este tipo de comportamientos del sistema a largo plazo, y qué protocolos de seguridad son los necesarios para evitar peores consecuencias.
Es que este hecho se dio al poco tiempo de que Roman Yampolskiy, experto en seguridad relacionada a las I.A, opinara que la extinción de la humanidad a causa de estas tecnologías es algo inevitable. Durante una entrevista, afirmó que esta probabilidad de que la Inteligencia Artificial lleve al fin del ser humano es de 99,999999%.
Por eso mismo, las dudas a partir de la desobediencia de este sistema japonés a las órdenes que se le habían otorgado y la evasión de la intervención humana para alterar su propio código, hicieron que la desconfianza y el miedo hacia las IA se hagan presente de nuevo, principalmente entre los científicos y los expertos.