Der USDT-Emittent Tether hat mit der Einführung des plattformübergreifenden LoRA-Frameworks für BitNet-Modelle (1-Bit LLMs) einen technischen Durchbruch im Bereich der KI verkündet. Das neue Tool ist Teil von QVAC Fabric und zielt darauf ab, die hohen Hardware-Hürden für die Entwicklung von Large Language Models (LLMs) zu senken. Bisher erforderte das Training von Modellen mit Milliarden von Parametern meist teure Enterprise-Systeme von Nvidia oder kostspielige Cloud-Infrastrukturen.
Effizienzsteigerung auf Consumer Hardware
Das Framework reduziert die Speicher- und Rechenanforderungen laut Unternehmensangaben drastisch. Dies ermöglicht das Fine Tuning von Modellen auf handelsüblichen Laptops, Consumer GPUs von AMD, Intel oder Apple sowie auf modernen Mobilgeräten. Benchmark-Daten zeigen, dass das BitNet-1B-Modell im Vergleich zu herkömmlichen 16-Bit-Modellen wie Gemma oder Qwen bis zu 77,8 Prozent weniger Videospeicher (VRAM) benötigt. Dieser Effizienzvorteil schafft den nötigen Spielraum, um auch größere Modelle auf Hardware zu betreiben, die bisher als unzureichend galt.
Benchmarks auf iPhone 16 und Samsung S25
Tether demonstrierte das Potenzial des Frameworks direkt auf High End Smartphones. Ein BitNet-Modell mit 125 Millionen Parametern konnte auf einem Samsung S25 innerhalb von etwa zehn Minuten für einen biomedizinischen Datensatz optimiert werden. Auf dem iPhone 16 gelang dem Team sogar das Fine Tuning von Modellen mit bis zu 13 Milliarden Parametern. Die Inference-Leistung auf mobilen GPUs übertraf die CPU-Performance dabei um das Zwei- bis Elffache.
Strategischer Vorstoß gegen Zentralisierung
CEO Paolo Ardoino betont die gesellschaftliche Relevanz dieses Schrittes. Wenn das Training großer Modelle ausschließlich von zentralisierter Infrastruktur abhänge, gefährde dies die Innovation und das gesellschaftliche Gleichgewicht. Ziel von Tether sei es, den Zugang zu KI-Technologie zu dezentralisieren und die Datenhoheit lokal beim Nutzer zu belassen. Das Framework unterstützt zudem erstmals LoRA-Finetuning für 1-Bit LLMs auf Nicht-Nvidia-Hardware, was die Abhängigkeit von spezifischen Chipherstellern weiter reduziert.
Parallel zu allerlei Beteiligungen im KI- und Biotech-Bereich sowie etlichen weiteren Sektoren startete das Stablecoin-Unternehmen jüngst eine neue Krypto-Offensive in den USA.

