Skip to main content

Kopēšana vai zādzība? Kāpēc Ķīnas AI modeļu “destilācija” satrauc nozares līderus

Mākslīgais intelekts attīstās ar neticamu ātrumu, un bieži vien šī attīstība balstās uz pamatprincipu: stāvi uz milžu pleciem. Taču, kur beidzas iedvesmas ņemšana un sākas intelektuālā īpašuma zādzība? Jaunākie pārsteigumi, kas saistīti ar Ķīnas AI uzņēmumiem un viņu attiecībām ar uzņēmumu Anthropic, uzsver vienu no nozares tumšākajām pusēm – modelu “destilāciju”. Un, kā izrādās, šī prakse var radīt reālus riskus uzņēmumiem visā pasaulē.

Kas īsti ir “destilācija” AI pasaulē?

Iedomājieties, ka jums ir ļoti sarežģīts, dārgi izstrādāts dzēriens – teiksim, ekskluzīvs 25 gadus vecs viskijs. Jūs to rūpīgi analizējat, izjūtat garšas nianses, aromātu un pēctam mēģināt savās laboratorijās izveidot pēc iespējas līdzīgu produktu, izmantojot pieejamākus sastāvdaļas. Aptuveni šādi darbojas modelu destilācija.

Tehniskā izteiksmē tā ir metode, kurā mazāks, “students” modelis tiek apmācīts imitēt lielāka, jaudīgāka “skolotāja” modeļa uzvedību un izvadi, neizmantojot tā pamatkodu vai sākotnējo apmācību. Tas pats par sevi nav nekas jauns vai nelegāls. Tas ir izplatīts pētniecības paņēmiens, lai padarītu lielus valodu modeļus efektīvākus, ātrākus un lētāk darbināmus. Problēma rodas tad, kad šī prakse tiek veikta **masveidā**, **sistemātiski** un, iespējams, **bez atbilstošas atļaujas**, lai ātri un ar minimālām izmaksām klonētu konkurentu gadiem ilgu darbu.

Anthropic un aizdomās turamie Ķīnas “kloni”

Rietumu AI līderis Anthropic, dibināts bijušiem OpenAI pētniekiem, ir pazīstams ar savu uz drošību orientēto pieeju un jaudīgo Claude valodu modeli. Pēc AI Business ziņojuma, vairāki Ķīnas AI piedāvātāji ir aizdomās turami par to, ka viņu publiski pieejamie modeļi ir izveidoti, izmantojot plašu Anthropic Claude modeļa izvades “destilāciju”.

Atšķirībā no vienkāršas iedvesmas ņemšanas, runa ir par sistemātisku procesu, kurā Ķīnas komandas, iespējams, ir izmantojušas milzīgus daudzumus Claude ģenerēta teksta, lai apmācītu savus pašu modeļus. Tas ļauj viņiem ļoti ātri sasniegt konkurētspējīgu rezultātu kvalitāti, apejot gadiem ilgo pētniecību, milzīgus datu apkopojuma darbus un milzīgus skaitļošanas resursu ieguldījumus, kas bija nepieciešami sākotnējā modeļa izveidei.

Kāpēc šī liela mēroga destilācija ir tik problemātiska?

No pirmā acu uzmetiena varētu šķist – labi, tehnoloģija attīstās, visi ko no kā nokopē. Taču realitāte ir daudz sarežģītāka, un riski attiecas ne tikai uz oriģinālo izstrādātāju.

1. Drošības un ētikas ēna

Modeļi kā Anthropic Claude ir milzīgu pūļu un resursu ieguldījums ne tikai spēkā, bet arī **drošībā un ētiskā izlīdzināšanā**. Anthropic ir slavens ar savu konstitucionālo AI pieeju, kas centās ieguldīt modeļos stingrus drošības principus, lai novērstu kaitīgu, aizspriedumainu vai bīstamu satura ģenerēšanu. Destilējot tikai modeļa *izvadi*, šīs ieguldītās drošības īpašības var tikt “atšķaidītas” vai pilnībā zaudētas. Rezultātā var rasties jaudīgs, bet nepietiekami kontrolēts modelis, kas tiek laists brīvībā.

2. Kvalitātes ilūzija un slēptie defekti

Destilēts modelis var *izskatīties* labi standarta testos, taču tam var trūkt oriģināla dziļā izpratne un robustums. Tas var būt nestabils dīvainos scenārijos, vieglāk novirzāms vai radīt kļūdainas informācijas (“hallucinācijas”) vēl biežāk. Uzņēmums, kas izvēlas šādu “klonu”, pēc pirmās izspēles var atklāt nopietnas trūkumus kritiskos brīžos.

3. Juridiskais miglains teritorija un riski uzņēmumiem

Intelektuālā īpašuma tiesības lielvalodu modeļiem ir pelēka zona. Apmācība uz cita modeļa izvadi *tehniski* var nebūt tieši pārkāpums autortiesības, taču tā noteikti izskatās kā negodīga konkurences prakse. Uzņēmumiem, kas izmanto šādus destilētus modeļus, pastāv risks:
* **Atbildības risks:** Ja izrādīsies, ka modelis ir “nozagtā” IP produktā, vai jūsu uzņēmums var tikt saistīts?
* **Atbalsta risks:** Ko darīt, ja šis ātri saliktais modelis vairs netiek uzturēts vai atklājas tā kritiski trūkumi?
* **Reputācijas risks:** Vai jūsu klienti vēlas būt saistīti ar produktu, kura pamatā ir apšaubāma ētika?

Ko tas nozīmē uzņēmumiem, kas izvēlas AI risinājumus?

Šis gadījums ir spēcīgs atgādinājums visiem, kas integrē AI savā darbā. Meklējot jaudīgus valodu modeļus, nepieciešams skatīties tālāk par tūlītējo spēku un cenu.

* **Piedzīvojiet pārredzamību:** Jautājiet piegādātājiem par viņu modeļu izcelsmi. Kā un uz kādiem datiem tas tika apmācīts? Vai viņi var parādīt apmācības procesu?
* **Novērtējiet ētiku un drošību:** Kādas ir modeļa drošības pasākumi? Kā tas tika izlīdzināts, lai novērstu kaitīgu rezultātu? Uzņēmuma vērtībām un pieejai jābūt svarīgākām par tehniskajiem specifikācijām.
* **Saprotiet ilgtermiņa riskus:** Lētāks vai bezmaksas modelis var izmaksāt dārgi nākotnē, ja tas balstās uz nestabilu un apšaubāmu pamatu. Izvēlieties piegādātājus, kuru biznesa modelis un inovācijas ir skaidras un ilgtspējīgas.

Nākotnes norāde: vērtība radīsies no oriģinalitātes, nevis imitācijas

Ķīnas AI ekosistēma ir milzīga un inovatīva, un tajā noteikti ir daudz oriģinālu spēku. Taču šādas destilācijas gadījumi rada ēnu visai nozarei. Patiesā konkurence nākotnē nebūs par to, kurš var ātrāk nokopēt esošo tehnoloģiju, bet par to, kurš var radīt patiesi jaunas, drošas un uzticamas arhitektūras.

Uzņēmumiem šis ir brīdis, lai kļūtu par apzinātākiem patērētājiem. Izvēle starp ētiski izveidotu, pārredzamu AI un ātri saliktu “klonu” var būt izšķiroša ne tikai jūsu projekta panākumiem, bet arī jūsu uzņēmuma reputācijai un juridiskajai drošībai gadiem uz priekšu. Jo AI kļūst par katras nozares kodolu, tā pamatakmeņiem jābūt ne tikai jaudīgiem, bet arī cietiem un godīgiem.

Avots: https://aibusiness.com/generative-ai/anthropic-vs-chinese-ai-vendors

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *