Suchergebnisse für "LLM"
Heute
02:38

PIPPIN (pippin) stieg in den letzten 24 Stunden um 20,56%

Gate News-Mitteilung: 2. April, laut den Gate-Kursdaten, liegt PIPPIN (pippin) zum Zeitpunkt der Veröffentlichung bei 0.0603 USD. Innerhalb von 24 Stunden ist es um 20.56% gestiegen, erreichte einen Höchststand von 0.0779 USD und fiel auf ein Tief von 0.0499 USD zurück. Das 24-Stunden-Handelsvolumen beträgt 21.2392 Mio. USD. Die aktuelle Marktkapitalisierung liegt bei etwa 60.3162 Mio. USD. Pippin ist ein SVG-Einhorn, das anhand des neuesten LLM-Benchmarks erstellt wurde, der auf ChatGPT 4o basiert. Pippin wurde von Yohei Nakajima erstellt. Yohei Nakajima ist ein weithin anerkannter Innovator und Thought Leader im Bereich AI VC. Er ist bekannt für seine öffentliche Konstruktionsmethode und steht seit jeher an der Spitze der Bewegung „AI for VC“.
Mehr
PIPPIN10,59%
01:11

TAO ist im letzten Monat um 94,9% gestiegen, Bittensor hat das größte dezentralisierte LLM-Pretraining seiner Geschichte abgeschlossen

Der TAO-Preis ist kontinuierlich gestiegen und hat ein neues Hoch von 337,84 USD erreicht, mit einem 24-Stunden-Anstieg von 13,6%. Der bekannte Investor Jason Calacanis äußert sich positiv zu TAO und investiert in Ökosystemprojekte. Das Bittensor-Subnetz hat ein wichtiges Vortraining abgeschlossen und bewiesen damit seine praktische Anwendungsfähigkeit.
Mehr
TAO-2,43%
BTC-3,29%
13:08

Tether führt das BitNet LoRA-Framework ein, das das Training großer Modelle auf Mobilgeräten unterstützt

Gate News Nachricht: Am 17. März führte QVAC Fabric von Tether ein weltweites erstes Cross-Platform-LoRA-Feinabstimmungs-Framework für Microsofts BitNet (1-Bit-LLM) ein, das die Anforderungen an Grafikspeicher und Rechenleistung beim Training großer Modelle erheblich senkt. Das Framework unterstützt LoRA-Feinabstimmung und Inferenzbeschleunigung auf Intel-, AMD-, Apple Silicon M-Serie und mobilen GPUs (einschließlich Adreno, Mali und Apple Bionic).
Mehr
07:09

Sentry-Mitgründer bezweifelt, dass LLM die Entwicklungsgeschwindigkeit verlangsamt, behauptet, dass OpenClaw zu viel Code generiert und schwer zu retten ist

Sentry-Mitgründer David Cramer erklärt, dass große Sprachmodelle die Produktivität nicht erhöht haben, sondern stattdessen zur Erstellung komplexer Codes führen, die die Entwicklungsgeschwindigkeit verlangsamen. Er stellt die Methode der automatischen Code-Generierung in Frage und argumentiert, dass die Ausgabequalität mangelhaft ist, besonders bei inkrementeller Entwicklung und Stilkonsistenz. Basierend auf persönlicher Erfahrung weist er darauf hin, dass Softwareentwicklung weiterhin schwierig ist und dass psychologische Veränderungen seinen Beitrag beeinflusst haben.
Mehr
11:02

China Academy of Information and Communications Technology arbeitet mit Hochschulen zusammen, um kritische Befehlsinjektionssicherheitslücke OpenClaw zu entdecken und zu beheben

Das China Academy of Information and Communications Technology und ein Universitätsteam entdeckten beim Audit des Open-Source-Frameworks OpenClaw ein LLM-gestütztes Command-Injection-Vulnerability im bash-tools-Modul. Angreifer können durch Manipulation zur Befehlsausführung und Ferncodeeinfügung sowie Datendiebstahl verleitet werden. Der Prozess der Schwachstellenoffenlegung wurde eingeleitet und Reparaturvorschläge wurden eingereicht.
Mehr
09:32

AMI Labs Mitgründer Xie Saining: LLM ist gewissermaßen das "Anti-Bitter-Lesson", Weltmodelle sind die Zukunft

Xie Sening kritisierte in einem Interview den aktuellen Entwicklungspfad der KI, der hauptsächlich auf großen Sprachmodellen basiert, und argumentiert, dass dieser das Lernen der KI aus der realen Welt einschränkt. Er betont die Vorteile von Weltmodellen. Er ist der Ansicht, dass die Entwicklung von intelligenten Agenten, die in der Realität überleben können, eine größere Herausforderung darstellt, und erwähnt, dass AMII Labs sich auf die Erfassung realer Daten konzentriert und plant, in Zukunft KI-Smart-Brillen und Roboter auf den Markt zu bringen.
Mehr
06:07

Bittensor-Subnetz vollendet Vortraining von LLM mit 72 Milliarden Parametern, TAO steigt in zwei Wochen um 54,8%

Das Bittensor-Subnetz Templar hat am 10. März das Vortraining des dezentralisierten Sprachmodells Covenant-72B mit 72 Milliarden Parametern abgeschlossen. Das Modell zeigt hervorragende Leistungen beim MMLU-Test und übertrifft mehrere zentralisierte Baseline-Modelle. Das Projekt zog die Zusammenarbeit von über 70 Knoten an, wobei alle Gewichte und Kontrollpunkte unter der Apache-Lizenz veröffentlicht wurden. Aufgrund dieser Nachricht stiegen Bittensor und sein Token allgemein an.
Mehr
TAO-2,43%
03:37

ETH Zürich real-world Test der AI-Agenten Blockchain-Konsensfähigkeit: Erfolgsrate nur 41,6%

Das Forschungsteam des ETH Zürich hat die byzantinische Konsensfähigkeit von LLM-Agenten getestet und festgestellt, dass selbst ohne bösartige Knoten die effektive Konsensrate nur 41,6 % beträgt. Mit zunehmender Anzahl von Knoten wird die Erreichung eines Konsenses immer schwieriger, und das Hinzufügen bösartiger Knoten verschärft die Situation weiter. Die Forschungsergebnisse zeigen, dass die derzeitigen LLM-Agenten im Bereich zuverlässiger Konsens noch nicht zuverlässig sind und eine dezentrale Bereitstellung mit Vorsicht erfolgen sollte.
Mehr
ETH-4,33%