Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
El cofundador de Ethereum, Vitalik Buterin, compartió recientemente su opinión sobre la dirección del desarrollo de los laboratorios de IA. Él cree que, si se va a iniciar un nuevo proyecto de investigación en IA, primero se debe diseñar con el objetivo claro de "potenciar las capacidades humanas".
Él enfatizó especialmente la importancia de evitar cuidadosamente crear sistemas de IA con autonomía a largo plazo, ya que estos pueden generar consecuencias incontrolables. En otras palabras, la IA debe mantenerse dentro de un rango en el que los humanos puedan supervisar y guiar eficazmente.
Otra cosa que Vitalik valora mucho es la transparencia y el código abierto. Propone que los nuevos laboratorios de IA deberían adoptar el modelo de código abierto tanto como sea posible, para que más desarrolladores puedan participar y también facilitar la revisión y retroalimentación de la comunidad.
Desde su perspectiva, Vitalik mantiene una actitud cautelosa hacia los sistemas de IA altamente autónomos actuales. Le preocupa que, si estos sistemas pierden la efectiva restricción humana, puedan traer riesgos desconocidos. Esta postura también refleja las reflexiones internas de la comunidad Web3 sobre la seguridad y ética de la IA: cómo disfrutar de las ventajas que trae la IA sin perder de vista que la tecnología debe desarrollarse en una dirección beneficiosa para la humanidad.
Este tipo de opiniones ha resonado bastante entre los desarrolladores de blockchain, ya que la descentralización y la gobernanza transparente son en sí mismas los valores fundamentales de Web3.
---
La transparencia y el código abierto ya los dominamos en Web3, ahora también hay que seguir la tendencia en AI
---
Vaya, otro argumento de "supervisión humana", esta vez de la boca de V神, suena diferente
---
En pocas palabras, no hagamos esas cosas de caja negra que funcionan de forma autónoma, son muy riesgosas
---
Interesante, la idea de descentralización de blockchain finalmente va a incursionar en el campo de la IA
---
El problema principal sigue siendo: ¿quién supervisará a los supervisores de la IA?
---
Estoy a favor del código abierto, pero en la realidad, ¿cuántos laboratorios están realmente dispuestos a abrir esa puerta?
---
Esta idea encaja con el ADN de Web3, todos rechazan el control centralizado
---
Potenciar las capacidades humanas en lugar de reemplazarlas, suena como si estuvieran frenando a la AGI
---
Exacto, los sistemas con alta autonomía son como bombas de tiempo, quien los tenga se arrepentirá
La IA debe llevar un "fusible de supervisión humana", no sea que termine causando algún problema
Realmente hay que aprender de la transparencia y el código abierto, no juegues con esas cosas de caja negra
Mejorar las capacidades humanas vs monstruos autónomos, ¿entiendes la elección, verdad?
¿La gente de web3 en seguridad de IA piensa más profundamente que algunos grandes de Silicon Valley? Qué interesante.
---
Otra vez, mejorar la capacidad humana y mantener el control... suena bien, pero en la realidad, ¿el capital no sigue invirtiendo en sistemas de caja negra?
---
Estoy de acuerdo con el modelo de código abierto, en comparación con ser monopolizado por unas pocas grandes empresas, es mucho mejor.
---
En cuanto a la preocupación por las consecuencias incontrolables, V神 lo ha pensado con cuidado, es mucho más confiable que esos proyectos de IA que crecen de manera salvaje.
---
Hablando en serio, la idea de descentralización en Web3 aplicada a la IA, ¿realmente puede ser dominada? esa sigue siendo una cuestión.
---
Gobernanza transparente + supervisión humana, ¿no es exactamente lo que Web3 ha estado haciendo todo este tiempo? Solo que con un objeto diferente.
---
Parece que V神 tiene una conciencia más clara sobre los riesgos de la IA que muchas otras personas, hay que admitirlo.
La transparencia y el código abierto son buenas, pero ¿cuántos realmente lo cumplen?
Pero nosotros los de web3 solo seguimos esa filosofía, mientras que en el lado centralizado ya han sido lavados el cerebro por IA de caja negra
Si la IA realmente se sale de control, la descentralización quizás sea la salida
Parece que está dando una lección de política a todos los laboratorios de IA... pero no se puede saber qué tan efectivo será
Pensé en esta idea hace diez años, pero ahora ya es un poco tarde, hermano
Decirlo bonito, ¿quién realmente entregaría el poder? Es siempre la misma historia
Estoy de acuerdo con el código abierto, ¿quién confiaría en ese sistema cerrado?
¿No parece esto una cuestión similar a la gobernanza en la cadena?
Pero volviendo al tema, ¿quién puede realmente "supervisar eficazmente" esta cosa? Es fácil de decir, pero difícil de hacer
¿Es mejorar la capacidad o prevenir riesgos? ¿Dónde está el punto de equilibrio?
La idea de transparencia de Web3 trasladada al campo de la IA, esta idea todavía es bastante coherente, ¿eh?
---
En pocas palabras, incluso la IA debe ser descentralizada, ¿de qué otra manera puede ser compatible con los ideales de web3?
---
¿Dentro del alcance de la supervisión humana? Entonces, ¿quién supervisará a los supervisores? Esto no se convierte en un dilema eterno
---
Otro gran experto en blockchain sacando el tema de la seguridad de la IA, parece que está aprovechando la situación
---
Estoy a favor del código abierto, pero el objetivo de potenciar las capacidades humanas suena demasiado abstracto, ¿cómo se define?
---
Es como si estuviera insinuando que los laboratorios de IA actuales están jugando en contra, tienen demasiada autonomía
---
La IA descentralizada suena bien, pero en la práctica, ¿es factible? Los que entienden de tecnología, ¿pueden opinar?