Conform PANews, cazul Lilli de la McKinsey oferă informații esențiale despre dezvoltarea pieței AI pentru întreprinderi, subliniind potențialul computing-ului de edge combinat cu modele mici. Acest asistent AI, care integrează 100,000 de documente interne, a atins o rată de adopție de 70% în rândul angajaților, cu o utilizare medie de 17 ori pe săptămână, demonstrând o aderență rară a produsului în instrumentele pentru întreprinderi.

O provocare majoră este asigurarea securității datelor pentru întreprinderi. Activele de cunoștințe fundamentale ale McKinsey, vechi de un secol, și datele specifice acumulate de întreprinderile mici și mijlocii sunt extrem de sensibile și nu sunt potrivite pentru procesare în cloud-uri publice. Explorarea unui echilibru în care datele rămân locale fără a compromite capacitățile AI este o necesitate de piață, cu computing-ul de edge fiind o direcție promițătoare.

Modelele mici profesionale sunt așteptate să înlocuiască modelele mari generale. Utilizatorii din întreprinderi necesită asistenți specializați capabili să abordeze cu precizie problemele specifice domeniului, mai degrabă decât modele generale cu miliarde de parametri. Contradicția inerentă între generalitatea și profunzimea profesională a modelelor mari face ca modelele mici să fie mai atrăgătoare în scenariile de întreprindere.

Echilibrarea costului infrastructurii AI construite de sine și apelurile API este o altă considerație. Deși combinația de computing de edge și modele mici necesită o investiție inițială semnificativă, reduce substanțial costurile operaționale pe termen lung. De exemplu, dacă 45,000 de angajați folosesc frecvent modele mari AI prin apeluri API, dependența și creșterea scalei de utilizare ar face ca infrastructura AI construită de sine să fie o alegere rațională pentru întreprinderile medii și mari.

Piața hardware-ului de edge oferă noi oportunități. În timp ce GPU-urile de top sunt esențiale pentru antrenarea modelelor mari, inferența de edge are cerințe hardware diferite. Producătorii de cipuri, cum ar fi Qualcomm și MediaTek, optimizează procesoarele pentru AI de edge, profitând de oportunitățile de pe piață. Pe măsură ce întreprinderile își propun să dezvolte propriul 'Lilli', cipurile AI de edge concepute pentru un consum redus de energie și o eficiență ridicată vor deveni o infrastructură esențială.

Piața AI web3 descentralizată se consolidează, de asemenea. Pe măsură ce cerințele întreprinderilor pentru puterea de calcul, ajustarea fină și algoritmii în modelele mici cresc, echilibrarea alocării resurselor devine provocatoare. Programarea tradițională centralizată a resurselor se va confrunta cu dificultăți, creând o cerere semnificativă pentru rețelele de ajustare fină a modelului mic AI web3 descentralizat și platformele de servicii de putere de calcul descentralizate.

În timp ce piața continuă să discute despre limitele capacităților generale ale AGI, este încurajator să vedem că mulți utilizatori de întreprindere explorează deja valoarea practică a AI. Clar, mutarea accentului de la monopolizarea resurselor în puterea de calcul și algoritmi către computing-ul de edge și modele mici va aduce o vitalitate mai mare pe piață.