Continuando oggi con Google turboquant

@xingpt Questa è la parte saliente

Lo spazio HBM risparmiato non sarà considerato un costo risparmiato, ma sarà utilizzato per fare tre cose:

Finestra di contesto più lunga: Prima si poteva leggere solo un articolo, ora si possono leggere cento libri alla volta

Batch Size più grande: La stessa scheda grafica può servire più utenti contemporaneamente

Esplosione dell'AI Edge: Inserire grandi modelli nei telefoni e nei PC

Non capisci? Ecco una versione semplificata e nascosta

In Ai2.0, uno dei veri vincitori confermati è Guangtong

Con la potenza di calcolo che aumenta e il contesto gestito che cresce, significa che il volume di scambio di dati tra i nodi sarà più spaventoso, la comunicazione ottica #LITE rimane comunque un grande vincitore a lungo termine

Indipendentemente da come cambia il modello, la produzione di base deve fare affidamento su

Strategia di selezione delle azioni per la memoria:

Se intendi acquistare memoria, dovresti concentrarti sulle aziende che beneficiano della domanda di storage (SSD/NAND) e delle tendenze HBM mainstream (come Micron #MU)

Evita quei produttori secondari che speculano su SRAM / alternative HBM come Winbond e Apacer, perché TurboQuant ha dimostrato che la compressione software è la soluzione ottimale per risolvere il collo di bottiglia di HBM, e questi piani alternativi sono stati subito abbandonati.

Ricorda di seguire @WaterX_app per iscriverti alla waitlist

Continuerò a cercare di aggregare più risorse di alta qualità relative a RWA nel mercato azionario statunitense 303…

https://x.com/waterx_app/status/2030308806807503279?s=61