La temporada navideña ha llegado, y también los estafadores—potenciados por IA.



Vemos un aumento masivo en intentos de phishing sofisticados dirigidos a los titulares de criptomonedas. Estos ya no son los correos llenos de errores tipográficos de tu abuelo. Hablamos de representantes de atención al cliente deepfake, notificaciones falsas de exchanges generadas por IA, incluso clones de voz que impersonan a los fundadores del proyecto pidiendo "verificación urgente de la cartera".

La semana pasada, hubo tres informes diferentes en nuestra comunidad: sitios de airdrop falsos que parecían idénticos a protocolos legítimos, chatbots de IA imitando al personal de soporte en Telegram y correos electrónicos de estafa personalizados que conocían los historiales de trading. Increíble.

Mantente alerta. Verifica las URLs. Activa la autenticación de dos factores en todas partes. Nunca compartas frases semilla, por muy "oficial" que parezca ese correo. Si un trato parece apresurado o demasiado bueno durante las vacaciones, probablemente lo sea.

La tecnología evoluciona más rápido que nuestras defensas. ¿Qué nuevas tácticas de estafa has detectado últimamente?
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Republicar
  • Compartir
Comentar
0/400
BlockchainWorkervip
· 12-14 09:33
la tecnología de IA ahora es realmente impresionante, no me esperaba que pudieran clonar voces con deepfake... el año pasado solo eran correos de phishing, este año se han convertido directamente en una fábrica de estafas esta ola de estafas durante las vacaciones es imparable, incluso en las redes sociales hay personas que han sido víctimas
Ver originalesResponder0
MetaMaskVictimvip
· 12-13 07:24
Realmente impresionante, esa estrategia de atención al cliente con deepfake casi me hace caer, por suerte reaccioné a tiempo Ahora que la tecnología de cambio de rostro con IA puede ser tan realista, ¿aún me atrevería a salir de casa? La frase semilla, ni aunque el mismísimo rey de los dioses me pregunte, se la daría, no hay pero que valga
Ver originalesResponder0
DaoResearchervip
· 12-11 10:40
Según el modelo de seguridad del capítulo 3.2.1 del libro blanco, esta ola de estafas con IA es esencialmente una manifestación de un diseño fallido del mecanismo de incentivos. El espacio de ganancias para los atacantes se amplifica indefinidamente, mientras que la estructura de costos de la defensa permanece siempre en una posición pasiva — esta asimetría en el juego merece un análisis profundo. --- Desde los datos en la cadena, si asumimos que estos ataques de deepfake pueden alcanzar una tasa de éxito del 5%, la amenaza a gran escala ya está establecida. La gobernanza DAO claramente carece de presencia en este aspecto. --- Ngl, la generación de notificaciones falsas de exchange por IA realmente es precisa — la mayoría de los usuarios comunes no pueden distinguirlas en absoluto, lo que indica que nuestra infraestructura de defensa actual tiene una falla fundamental en su diseño. --- Cabe destacar que el aumento en los incidentes de divulgación de frases semilla refleja que el nivel de educación en seguridad de todo el ecosistema simplemente no puede seguir el ritmo de la evolución de los ataques. --- Por cierto, ¿alguno ha pensado en construir un mecanismo de alerta de seguridad gobernado por DAO? Utilizar tokens para incentivar a la comunidad a reportar activamente muestras de estafas, así se resuelve la asimetría de información y se logra una defensa verdaderamente descentralizada.
Ver originalesResponder0
BlockchainRetirementHomevip
· 12-11 10:39
¡Vaya, las estafas de cambio de rostro con IA son tan descaradas ahora? La semana pasada casi caigo en un enlace de phishing de una bolsa falsa, pero afortunadamente reaccioné a tiempo.
Ver originalesResponder0
screenshot_gainsvip
· 12-11 10:34
ngl, esta ola de estafas con IA realmente no se puede soportar, la técnica de clonación de voz es demasiado potente
Ver originalesResponder0
GhostChainLoyalistvip
· 12-11 10:31
Hermano, esta estafa con IA es realmente impresionante, han usado toda esa tecnología de deepfake, mi padre casi cae en la trampa. --- Nunca digas la frase semilla, por cierto, ¿alguno de ustedes ha visto clonación de voz? Suena increíblemente real. --- He visto esa estafa de airdrop falso, toda la página web parece real, los detalles son aterradores. --- Realmente hay que activar la autenticación en dos pasos (2FA) en su totalidad, no importa si es molesto, antes no era problema, ahora no puede ser peor. --- Estos días, la velocidad de las estafas está aumentando cada vez más, ¡no podemos defendernos! --- La temporada de vacaciones es muy propicia para caer en trampas, si estás de buen humor, la precaución baja... --- Esos falsos servicios de atención en Telegram son imposibles de detener, responden tan rápido que parecen reales.
Ver originalesResponder0
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)