Ciberseguridad
Que chatgpt y otras herramientas con ia están llenas de algún que otro fallo perfectamento explotable si sabes cómo, es un hecho. Sin embargo, este descubrimiento se sale fuy de lo ‘normal’.
Borys Musielak Utilizó Este Chatbot de OpenAi para Generar una réplica perfecta de su pasaporte en apenas cinco minutos. Según explicó en su perfil de x —Astes twitter—, este documento falso es tan tan realista que podría pasar sen problemas los controles automatizados de “Conoce a tu Cliente” (KYC) Que Utilizan Bancos, Plataformas y intercambios de Criptomonedas.
“Me tomó 5 minutos crear una réplica de mi propio pasaporte que la mayoría de los sistemas KYC automatizados probablemente aceptarían sin pestañear. Las implicaciones son obvias: cualquier proceso de verificación basado en imágenes como prueba ha quedado oficialmente obsoleto. Lo mismo aplica a las selfis. Estéticas o en vídeo, da igual. GenAI también puede falsificarlas”Comenta Vía X.
Un este añadir problema aún más preocupantes como robo de identidad masivo, apertura fraudulenta de cuentas bancarias y solicitudes de las falsas de Crédito.
Ciberseguridad “Ahora puedes generar pasaportes falsos con GPT-4o”
Aquí Parece que el Gran Problema recae en lo realmento sencillo que es engañar a los sistemas kyc. Para que te hagas una ligera idea, Estos Han Sido una Herramienta Vital para prevenir fraudes y Garantizar el Cumplimento Normativo en sectores financieros y Tecnológicos.
Sin embargo, su dependencia de im ágenes estáricas y vídeos como prueBa principal Los Hace vulnerables un documento Falsificados generados por Inteligencia artificial. En el Caso del Pasaporte Creado por Musielak, Se Evitó inclusión Caer en errores que rápidamete detecta, como el Uso Uso incluso de Photoshop.
Sin Ir Más Lejos, Plataformas muy cryticas como binance revolut y binance ya han recibido bastantes quejas por precisamento depender de nos métodos básicos para verificar identidadas.
Ciberseguridad Chatgpt también puede imitar tu voz y este es un problema
Rizando El Rizo, GPT-4O, El Modelo Más Avanzado de OpenAi, Permite a la ia generar Diferentes Voces. Embargo de pecado, Durante Las Pruebas, SE Descubrio Que en Citas Condicatos, La ia Podía imitar la Voz del Usuario, inclusión un Partir de Fragmentos de Audio Cortos.
Imagina recibir una Llamada de un Amigo o inclusión un familiar Pidiéndota Información Confidencia o Diciéndota que Necesitan Que Hagas una Transferencia Bancaria. TODO Parece Real, Sobre TODO Porque Reconoces Su Voz. Pero ¿y si no son ellos?
“Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras”nos explicaron en uno anterior entrelato Raquel puebla e itxaso Reboleiro, Analistas de Ciberinteligencia en Innotec Security parte de Accenture.
Al final, un fragmento de la voz de alguien de una conversación es suficiente para que undincuente lo utilice para generar conversaciones muy. Si Alguien Conoce tu Parentesco Contra Persona y la GrabA para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.
El Peligro de Las Llamadas Fraudulentas Con ia
Por ootro -lado, Estos Estafadores También Pueden Hacerse Pasar por Empleados de Bancos, Compañías Telefónicas o Servicios de Atención Al Cliente. Llaman a la víctima Con Cualquier pretexto y, mediante preguntas Engrimosas, Buscan Obtener una respuesta afirmativa. Una Vez que Logran Grabar la Voz DiCiDO “sí”Pueden Usarla para Confirmar Transaccions o aceptar contratos falsos en nombre de la víctima.
La CLAVE DE ESTA ESTAFA ES CONSEGUIR QUE LA PERPONIMA PRONUNCIE “sí”. ESTA PALABRA PUEDE SER MANIPULADA DIGITALMENTA Y AñADIDA A UNA CONVERSACIÓN FICTICA EN LA QUE SE DA CONSENTIMIENTO A ALGO QUE NUNTA SE AUTORIZÓ.
Laura Grandi, Presidente de Federconsumatori Toscana, Ha Señalado en el Portal Italiano Telefonino, Que es IMPORTANTE EVITAR DEFIR “sí” en Llamadas telefónicas con números descónocidos o en conversaciones sospechosas. En su Lugar, Recomienda Responder Confras Frases completas como “¿De qué se trata esta llamada?”o “¿Quién habla?”para no dar un fragmento de audio que pueda ser manipulado.
Con TODO ESTO, Queda Claro Que Gpt-4o, O Directamé Chatgpt, Ya Sea Una Herramienta Perfecta para este Tipo de Actos, Preocupa. En cuanto a cómo se podría revólver el problema problemas de que solo va a ir a más, es posible que existan varias formas de acabar con ello, como un alcalde regulación o mejores medidas de seguriDad porte de las componías que cosecha de detramient.
Conoce Cómo Trabajamos en Computerhoy.
Etiquetas: Inteligencia Artificial, Datos, Software, CiberseguriDad