Kā iegūt uzticamākas atbildes no mākslīgā intelekta? Viens startups risinājums: pārbaudīt visus čatbotus vienlaikus
Mēdz teikt, ka patiesība rodas diskusijā. Bet kas notiek, ja diskutē nevis cilvēki, bet dažādi mākslā intelekta modeļi? Ja jūs esat mēģinājis iegūt svarīgu informāciju no ChatGPT, Gemini vai Claude, droši vien esat saskāries ar situāciju, kad atbildes atšķiras, un nav skaidrs, kurai piekrist. Viens jauns uzņēmums, CollectivIQ, uzskata, ka ir atradis risinājumu: nevis paļauties uz vienu modeli, bet vienlaikus “aptaujāt” līdz pat 14 dažādus MI čatbotus un parādīt lietotājam visu kolektīvo intelektu.
Viens jautājums, simts atbilžu variāciju: kāpēc viena MI atbilde vienmēr nepietiek?
Iedomājieties, ka jums steidzami jāuzzina precīzs likumdošanas pants, sarežģīta medicīniskā termina skaidrojums vai vēsturisku notikumu hronoloģija. Jūs atverat savu iecienītāko MI rīku, uzdodat jautājumu un saņemat atbildi. Bet vai varat tai uzticēties pilnībā? Dažādi mākslā intelekta modeļi ir apmācīti uz dažādiem datu kopumiem, tiem ir atšķirīgas “personības” un pieejas problēmu risināšanai. Tas, ko viens modelis uzskata par faktu, otrs var interpretēt pavisam citādi. Rezultātā lietotājs paliek apjucis un bieži vien ir spiests pats pārbaudīt informāciju vairākos avotos, kas aizņem laiku un samazina paša rīka vērtību.
Šī ir tā saucamā “halucināciju” problēma, kad MI rada pārliecinoši izklausīšus, bet faktiski neprecīzus vai pilnīgi izdomātus apgalvojumus. CollectivIQ dibinātāji uzskata, ka labākais veids, kā ar to cīnīties, nav mēģināt izveidot vienu perfektu modeli, bet gan izmantot kolektīvo spēku.
Kā strādā CollectivIQ? Demokratija čatbotu pasaulē
CollectivIQ platformas darbības princips ir vienkāršs un geniāls vienlaikus. Lietotājs viņu mājaslapā vai paplašinājumā ieraksta savu jautājumu – tas var būt jebkas no “Kā uztaisīt perfektu bērnu dzimšanas dienas kūku?” līdz “Kādi ir jaunākie pētījumi par kvantu datoriem?”. Pēc tam sistēma automātiski nosūta šo jautājumu vienlaikus visiem saviem integrētajiem mākslā intelekta modeļiem.
Tie ietver visus lielos spēlētājus: OpenAI ChatGPT, Google Gemini, Anthropic Claude, xAI Grok, kā arī līdz pat 10 citiem specializētiem vai reģionāliem modeļiem. Dažu sekunžu laikā lietotājs redz visu iegūto atbilžu mozaīku vienā skatā. Tas nav tikai atbilžu saraksts. Platforma strukturē informāciju, iezīmējot, kurās vietās dažādie modeļi atbild identiski (kas liecina par augstu ticamības pakāpi), un kurās tie krasi atšķiras.
Konsenss, pretrunas un jaunas iespējas: kā interpretēt rezultātus?
Tātad, ko darīt, ja 12 no 14 modeļiem sakrīt, bet divi sniedz pilnīgi atšķirīgu informāciju? CollectivIQ sniedz instrumentus, lai izprastu šīs atšķirības. Lietotājs var apskatīt, kuri konkrētie modeļi kā atbildēja, kas ļauj novērtēt avotu ticamību. Varbūt tie divi “iebilstošie” modeļi ir specializēti tieši attiecīgajā jomā? Vai arī tieši viņi atsaucas uz jaunākajiem pētījumiem, kamēr pārējie atkārto novecojušus datus?
Šāda pieeja ne tikai palīdz atrast patiesāko atbildi, bet arī atklāj pašu zināšanu robežas un nepilnības. Tā ir vērtīga mācīšanās līdzeklis. Piemēram, students, kas raksta pētniecisko darbu, var uzreiz redzēt, kuros jautājumos starp zinātniekiem (vai to datu kopās, uz kurām mācīti modeļi) vēl nav panākta vienprātība. Uzņēmuma darbinieks, kas gatavo pārskatu, var identificēt alternatīvos skatījumus uz tirgus tendencēm.
Nākotne: no informācijas agregācijas uz kolektīvo intelektu
CollectivIQ mērķis nav vienkārši būt vēl viena meklēšanas lieta. Viņi redz platformu kā nākamo soli MI attīstībā – pāreju no viena modeļa autoritātes uz decentralizētu, kolektīvu intelektu. Nākotnē sistēma varētu ne tikai salīdzināt atbildes, bet arī automātiski novērtēt to ticamību, pamatojoties uz modeļu iepriekšējo precizitāti konkrētajās tēmās, atsaukties uz primārajiem avotiem un pat sintētizēt visprecīzāko iespējamo atbildi, balstoties uz visu iegūto informāciju.
Šis “čatbotu pūlis” varētu kļūt par neaizstājamu rīku zinātnē, izglītībā, žurnālistikā un jebkurā jomā, kur precizitāte un daudzpusīga izpratne ir izšķiroša. Tas rada jaunu standartu atbildībai – ja viena MI atbilde var būt kļūdaina, tad 14 dažādu sistēmu kolektīvais viedoklis ir daudz ticamāks.
Izvēle vairs nav par to, kurš čatbots ir “labākais”. Nākotne, kuru aina CollectivIQ, ir par to, kā visi šie čatboti strādā kopā, lai sniegtu mums visprecīzāko un visdetalizētāko informāciju, kāda jebkad ir bijusi pieejama. Tas ir līdzīgi tam, kā konsultēties ar veselu ekspertu komisiju, nevis ar vienu speciālistu. Un, iespējams, tieši šāda pieeja mums palīdzēs pilnībā atklāt mākslā intelekta patieso potenciālu – nevis kā atsevišķa orākula, bet kā spēcīga un daudzveidīga kolektīvā prāta atspulgu.