Continuando oggi con Google turboquant
@xingpt Questa è la parte saliente
Lo spazio HBM risparmiato non sarà considerato un costo risparmiato, ma sarà utilizzato per fare tre cose:
Finestra di contesto più lunga: Prima si poteva leggere solo un articolo, ora si possono leggere cento libri alla volta
Batch Size più grande: La stessa scheda grafica può servire più utenti contemporaneamente
Esplosione dell'AI Edge: Inserire grandi modelli nei telefoni e nei PC
Non capisci? Ecco una versione semplificata e nascosta
In Ai2.0, uno dei veri vincitori confermati è Guangtong
Con la potenza di calcolo che aumenta e il contesto gestito che cresce, significa che il volume di scambio di dati tra i nodi sarà più spaventoso, la comunicazione ottica #LITE rimane comunque un grande vincitore a lungo termine
Indipendentemente da come cambia il modello, la produzione di base deve fare affidamento su
Strategia di selezione delle azioni per la memoria:
Se intendi acquistare memoria, dovresti concentrarti sulle aziende che beneficiano della domanda di storage (SSD/NAND) e delle tendenze HBM mainstream (come Micron #MU)
Evita quei produttori secondari che speculano su SRAM / alternative HBM come Winbond e Apacer, perché TurboQuant ha dimostrato che la compressione software è la soluzione ottimale per risolvere il collo di bottiglia di HBM, e questi piani alternativi sono stati subito abbandonati.
Ricorda di seguire @WaterX_app per iscriverti alla waitlist
Continuerò a cercare di aggregare più risorse di alta qualità relative a RWA nel mercato azionario statunitense 303…
https://x.com/waterx_app/status/2030308806807503279?s=61
