Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los reguladores en el Reino Unido han iniciado una investigación sobre X, examinando preocupaciones en torno al sistema Grok AI de la plataforma y su potencial para generar deepfakes. La medida refleja una creciente vigilancia global sobre cómo las plataformas de redes sociales gestionan las herramientas de creación de contenido impulsadas por IA.
La investigación se centra en si existen salvaguardas adecuadas para prevenir el uso malicioso de la IA en la creación de medios sintéticos que podrían difundir desinformación o perjudicar a las personas. Con la tecnología de deepfake volviéndose cada vez más sofisticada, las autoridades cuestionan si los marcos existentes de moderación de contenido pueden mantenerse al día.
Esta investigación destaca un desafío más amplio que enfrentan las plataformas tecnológicas: equilibrar la innovación en las capacidades de IA con protecciones sólidas contra el uso indebido. A medida que la inteligencia artificial se integra más en las plataformas sociales, los reguladores de todo el mundo están intensificando la supervisión. El caso subraya por qué la gobernanza transparente y la gestión proactiva de riesgos en la implementación de IA son más importantes que nunca para la credibilidad de las plataformas digitales.
Grok por muy impresionante que sea, también tiene sus límites.
Otro plataforma está siendo vigilada, parece que el mundo entero está luchando contra la IA.
La verdad, no se puede prevenir, la tecnología siempre avanza más rápido que la supervisión.
La regulación llega tarde, pero mejor tarde que nunca, ¿verdad?
Esto le va a dar dolores de cabeza a X, pero hay que sancionar cuando corresponda.
La herramienta de IA en sí no es mala, lo importante es quién y cómo la usa.
Cada vez es más difícil distinguir lo real de lo falso, no es de extrañar que las autoridades regulatorias estén desesperadas.
El costo de crear información falsa cada vez es menor, esto realmente es un gran problema.
La manipulación profunda ya debería haberse controlado hace tiempo, de lo contrario, una gran calamidad está por llegar
Las autoridades regulatorias finalmente están actuando en serio, pero aún parece un poco tarde
Las falsificaciones generadas por IA están por todas partes, las plataformas simplemente no pueden controlarlo
En lugar de investigar, mejor poner cadenas directamente, de lo contrario, solo será un trámite
---
La herramienta grok definitivamente debe ser vigilada... si no, la desinformación volará por todas partes.
---
Otra vez regulación y AI, al final todo se reduce a dinero.
---
Hoy en día, todo puede ser fake, ¿quién todavía cree en esto...?
---
X probablemente será muy castigado esta vez, las autoridades regulatorias del Reino Unido no son fáciles de tratar.
---
Siempre hablando de innovación, y cuando pasa algo, solo entonces piensan en poner una línea de defensa, esa estrategia ya está vieja.
---
El desarrollo de la tecnología de deepfake avanza tan rápido que el marco de revisión seguramente no podrá seguirle el ritmo, eso todos lo saben.
---
El fracaso de Grok ya está decidido, solo queda ver cuántas multas le caerán.
---
El problema no está en grok, sino en que nadie realmente quiere regular.
La deepfake, realmente debería ser controlada, si no, se podrán crear todo tipo de contenidos
Cómo equilibrar la innovación en IA y el control de riesgos... esta pregunta es demasiado difícil
Para ser honestos, las plataformas ahora están un poco nerviosas, jaja
La regulación ha llegado, el mercado de criptomonedas volverá a ser volátil
---
Otra vez lo mismo, siempre investigan primero y luego lanzan políticas, para cuando eso la tecnología ya habrá evolucionado diez generaciones
---
Grok debería haberse investigado hace tiempo, dejar herramientas de IA abiertas sin protección es jugar con fuego
---
¿Medidas de seguridad? Me río, estas plataformas siempre esperan a que surjan problemas para parchear las vulnerabilidades
---
Ahora todas las grandes empresas están en una carrera armamentística de IA, ¿de qué sirve hablar de prevención de riesgos...? Frente a los intereses, todo es en vano
---
¿Gobernanza transparente? Qué bonito decirlo, en realidad ya lo han resuelto en secreto
---
¿Otra ronda de la gran obra de "Seguridad de IA"? Sería raro que la regulación pudiera seguir el ritmo de la tecnología
---
Es una verdadera contradicción, querer innovar y al mismo tiempo prevenir riesgos, ¿cómo deben manejar las plataformas?
---
La falsificación profunda, en el nivel técnico, no se puede prevenir, solo se puede depender de la revisión manual y aumentar el personal
---
¿Puede la cadena de bloques resolver este problema? El contenido en la cadena es inalterable...
---
Las autoridades regulatorias del Reino Unido actúan rápido, aquí todavía estamos investigando
---
Grok está en auge, pero también hay muchos casos de uso abusivos, es razonable investigarlos
---
Otra vez información falsa, otra vez medios sintéticos... a esta regulación le gusta reciclar viejas ideas
---
El problema principal es que el costo de la revisión es demasiado alto, las plataformas simplemente no pueden soportarlo