LoRA-Frameworks für BitNet-Modelle 

KI-Durchbruch: Tether bringt riesige Sprachmodelle direkt aufs Smartphone

Das neue QVAC Fabric von Stablecoin-Gigant Tether ermöglicht das Training massiver KI-Modelle auf herkömmlichen Laptops und Smartphones.

Johannes Dexl
Teilen
Ein Mann mit kurzem Haar und Bart trägt ein schwarzes Tether-T-Shirt und spricht mit Headset-Mikrofon auf einer Bühne. Hinter ihm ist groß das Tether-Logo zu sehen, davor leuchten rötlich eingefärbte Krypto-Münzen im Hintergrund.

Beitragsbild: picture alliance

| USDT-Emittent Tether entwickelt sich mit CEO Paolo Ardoino zunehmend in eine Art Berkshire Hathaway

Der USDT-Emittent Tether hat mit der Einführung des plattformübergreifenden LoRA-Frameworks für BitNet-Modelle (1-Bit LLMs) einen technischen Durchbruch im Bereich der KI verkündet. Das neue Tool ist Teil von QVAC Fabric und zielt darauf ab, die hohen Hardware-Hürden für die Entwicklung von Large Language Models (LLMs) zu senken. Bisher erforderte das Training von Modellen mit Milliarden von Parametern meist teure Enterprise-Systeme von Nvidia oder kostspielige Cloud-Infrastrukturen.

Effizienzsteigerung auf Consumer Hardware

Das Framework reduziert die Speicher- und Rechenanforderungen laut Unternehmensangaben drastisch. Dies ermöglicht das Fine Tuning von Modellen auf handelsüblichen Laptops, Consumer GPUs von AMD, Intel oder Apple sowie auf modernen Mobilgeräten. Benchmark-Daten zeigen, dass das BitNet-1B-Modell im Vergleich zu herkömmlichen 16-Bit-Modellen wie Gemma oder Qwen bis zu 77,8 Prozent weniger Videospeicher (VRAM) benötigt. Dieser Effizienzvorteil schafft den nötigen Spielraum, um auch größere Modelle auf Hardware zu betreiben, die bisher als unzureichend galt.

Benchmarks auf iPhone 16 und Samsung S25

Tether demonstrierte das Potenzial des Frameworks direkt auf High End Smartphones. Ein BitNet-Modell mit 125 Millionen Parametern konnte auf einem Samsung S25 innerhalb von etwa zehn Minuten für einen biomedizinischen Datensatz optimiert werden. Auf dem iPhone 16 gelang dem Team sogar das Fine Tuning von Modellen mit bis zu 13 Milliarden Parametern. Die Inference-Leistung auf mobilen GPUs übertraf die CPU-Performance dabei um das Zwei- bis Elffache.

Strategischer Vorstoß gegen Zentralisierung

CEO Paolo Ardoino betont die gesellschaftliche Relevanz dieses Schrittes. Wenn das Training großer Modelle ausschließlich von zentralisierter Infrastruktur abhänge, gefährde dies die Innovation und das gesellschaftliche Gleichgewicht. Ziel von Tether sei es, den Zugang zu KI-Technologie zu dezentralisieren und die Datenhoheit lokal beim Nutzer zu belassen. Das Framework unterstützt zudem erstmals LoRA-Finetuning für 1-Bit LLMs auf Nicht-Nvidia-Hardware, was die Abhängigkeit von spezifischen Chipherstellern weiter reduziert.

Parallel zu allerlei Beteiligungen im KI- und Biotech-Bereich sowie etlichen weiteren Sektoren startete das Stablecoin-Unternehmen jüngst eine neue Krypto-Offensive in den USA.

Empfohlenes Video
Bitcoin Richtung 85k – doch die Fed könnte alles zerstören
Kryptowährungen kaufen – Leitfaden & Anbieter 2026
In unserem kostenlosen BTC-ECHO Leitfaden zeigen wir dir, wie du sicher und Schritt für Schritt in Kryptowährungen investieren kannst. Außerdem erklären wir, worauf du beim Kauf von Coins und Token achten solltest.
Jetzt zum Kryptowährungen kaufen Leitfaden