Inferact iegūst rekordlielu 150 miljonu dolāru ieguldījumu, lai padarītu lielo valodu modelu izmantošanu ātrāku un pieejamāku
Iedomājieties pasauli, kurā jūsu mākslīgā intelekta palīgs atbild acumirklī, neatkarīgi no tā, cik sarežģīts jūsu jautājums ir. Pasauli, kur uzņēmumiem vairs nav jātērē milzīgi resursi, lai darbinātu šos jaunākos modeļus. Tieši šīs problēmas risina jaunākā zvaigzne AI infrastruktūras jomā – startup uzņēmums Inferact, kurš tikko paziņojis par vēsturisku finansējuma kārtu, kas padara šo nākotni daudz tuvāku realitātei.
No universitātes laboratorijas uz 800 miljonu dolāru vērtību: Laimīgā sēkla
Saskaņā ar oficiālu paziņojumu, Inferact ir veiksmīgi pabeidzis sēklas finansējuma kārtu (seed round), kuras laikā tas piesaistījis iespaidīgus 150 miljonus ASV dolāru. Vēl iespaidīgāka ir tā vērtība pēc šīs kārtas – 800 miljonu dolāru. Šāds vērtējums jaunizveidotam uzņēmumam ir ne tikai rets, bet arī skaidri parāda, cik lielu potenciālu investori redz AI izsecināšanas (inference) infrastruktūras tirgū. Finansējums tiks izmantots, lai komercializētu un attīstītu viņu galveno produktu – vLLM atvērtā koda projektu, padarot to par rūpnieciskā mēroga risinājumu uzņēmumiem visā pasaulē.
Kas ir vLLM un kāpēc tas ir tik revolucionārs?
Lai saprastu, kāpēc Inferact ir izraisījis tik lielu satraukumu, vispirms ir jāsaprot viņu galvenais instruments – vLLM. Šis ir atvērtā koda optimizācijas rīks lielo valodu modelu (LLM) izpildei. Vienkārši sakot, vLLM padara tādus modeļus kā GPT-4, Llama vai Claude daudz, daudz ātrākus un efektīvākus, kad tie jau ir izstrādāti un tos izmanto reālā laikā lietotājiem.
Iedomājieties to kā supersparnotu dzinēju jūsu jau esošajā AI automašīnā. Tradicionālā pieeja varētu apstrādāt, teiksim, 100 pieprasījumus minūtē. Ar vLLM tehnoloģiju tas pats aparatūras komplekts var apstrādāt 1000 vai vairāk pieprasījumus, ievērojami samazinot izmaksas un uzlabojot lietotāja pieredzi. Tas tiek panākts, izmantojot viedo atmiņas pārvaldību un novēršot “bloķēšanos”, kas lēna tradicionālo sistēmu darbību.
Kāpēc izsecināšana (Inference) ir nākamais lielais AI izaicinājums?
Pēdējos gados lielākā daļa uzmanības un kapitāla ir plūdusi uz modeļu *apmācību* – milzīgu datu kopu apstrādi, lai radītu šos milzīgos modeļus. Taču, kad modelis ir izveidots, rodas nākamais, tikpat svarīgais posms: tā *izpilde* reālajā pasaulē, kas pazīstama kā “inference”. Tieši šeit slēpjas lielākās grūtības un izmaksas uzņēmumiem, kas vēlas izmantot AI.
Daudzi uzņēmumi atklāj, ka izmaksas par modeļa darbināšanu katru dienu var būt astronomiskas, kavējot tā plašu ieviešanu. Inferact ar vLLM tieši risina šo problēmu. Viņu misija ir padarīt visjaudīgāko AI pieejamu un ekonomiski izdevīgu ikvienam, ne tikai tehnoloģiju gigantiem ar neierobežotiem budžetiem.
Kas slēpjas aiz šī milzīgā investīciju uzplūda?
Investori, kuru vārdi pagaidām nav oficiāli atklāti, acīmredzami redz vairākus spēcīgus signālus. Pirmkārt, vLLM jau ir kļuvis par *de facto* standartu daudzās AI pētnieku un izstrādātāju vidē, kas pierāda tā tehnoloģiskās pārākuma. Otrkārt, tirgus pieprasījums pēc lētākas un ātrākas AI izpildes eksponenciāli aug, sekojot līdzi modelju kompleksitātes pieaugumam. Treškārt, Inferact komanda, kas, iespējams, ir saistīta ar sākotnējiem vLLM pētniekiem no Kalifornijas universitātes Bērkli, apvieno dziļu tehnoloģiju izpratni ar skaidru komercializācijas redzējumu.
Kādu ietekmi tas radīs uz uzņēmumiem un gala lietotājiem?
Šīs tehnoloģijas komercializācija nozīmēs reālas pārmaiņas dažādās nozarēs.
Attīstītājiem un tehnoloģiju uzņēmumiem:
Viņi varēs izvēlēties vairāk uzlabotus un sarežģītākus AI modeļus savām lietotnēm, nebaidoties, ka serveru izmaksas izdosies no kontroles. Tas paātrinās inovācijas un ļaus radīt pilnīgi jauna veida lietojumprogrammas, kas šodien ir neiespējamas izmaksu dēļ.
Parastiem uzņēmumiem:
Vidēja lieluma uzņēmumi, kuri vēl nesen uzskatīja, ka uzņēmuma līmeņa AI viņiem nav pieejama, tagad varēs to ieviest. Iedomājieties pielāgotus klientu apkalpošas tērzētājus, kas atbild reāllaikā, automatizētu dokumentu analīzi vai satura ģenerēšanu par daudz zemākām izmaksām.
Gala lietotājiem:
Mēs visi pārdzīvosim to kā ātrāku, uzticamāku un intuitīvāku mijiedarbību ar jebkuru AI rīku, ko izmantojam. Ieklausīšanās atbildēs, ilgas ielādes un pakalpojumu pārtraukumi kļūs daudz retāki.
Nākotnes perspektīvas: Ko gaidāms no Inferact?
Ar 150 miljoniem dolāru kabatā, Inferact varēs ievērojami paplašināt savu inženieru un pārdošanas komandu, kā arī ieguldīt tālākā izstrādē. Viņi, visticamāk, koncentrēsies uz mākoņa pakalpojumu pilnveidošanu, padarot vLLM ieviešanu vienkāršu ar dažiem klikšķiem, kā arī uz sadarbību ar lielākajiem mākoņa pakalpojumu sniedzējiem un GPU ražotājiem.
Tas ir vēl viens spēcīgs signāls, ka AI revolūcija ienāk nākamajā fāzē: no pētniecības laboratorijām un demonstrāciju videoklipiem uz stabilu, efektīvu un masveidā pieejamu tehnoloģiju, kas integrējas mūsu darba un ikdienas dzīves kodolā. Un, šķiet, Inferact ir tieši tajā pozīcijā, lai kļūtu par vienu no šīs jaunās fāzes atslēgspēlētājiem. Sekosim viņu darbībai tuvākajā laikā – šis, iespējams, ir tikai sākums.
Avots: https://techcrunch.com/2026/01/22/inference-startup-inferact-lands-150m-to-commercialize-vllm/