Menurut PANews, Tether Data telah memperkenalkan QVAC Fabric LLM, sebuah lingkungan runtime inference model bahasa besar (LLM) yang komprehensif dan kerangka kerja fine-tuning baru. Inovasi ini memungkinkan model bahasa besar untuk dijalankan, dilatih, dan disesuaikan secara langsung pada perangkat keras sehari-hari seperti GPU kelas konsumen, laptop, dan bahkan smartphone. Tugas-tugas yang sebelumnya memerlukan server cloud kelas atas atau sistem NVIDIA khusus kini dapat dijalankan secara lokal pada perangkat yang ada milik pengguna.
QVAC Fabric LLM meningkatkan ekosistem llama.cpp dengan menambahkan dukungan fine-tuning untuk model-model modern seperti LLama3, Qwen3, dan Gemma3. Ini mendukung pelatihan pada berbagai GPU, termasuk yang dari AMD, Intel, NVIDIA, Apple, dan chip mobile, menantang keyakinan yang telah lama dipegang bahwa pengembangan AI yang berarti tergantung pada perangkat keras khusus dari satu vendor. Tether Data telah merilis QVAC Fabric LLM sebagai perangkat lunak sumber terbuka di bawah lisensi Apache 2.0 dan telah menyediakan biner multi-platform serta adaptor siap pakai di Hugging Face. Pengembang dapat memulai fine-tuning hanya dengan beberapa perintah, menurunkan hambatan untuk kustomisasi AI.
