Kā antropiskais intelekts maina darba intervijas: Anthropic pastāvīgi jaunina testus, lai apturētu krāpšanos ar Claude
Mēģināt iegūt darbu pie viena no vadošajiem mākslīgā intelekta radītājiem pasaulē ir izaicinājums pats par sevi. Bet ko darīt, ja jūsu galvenais konkurents pārbaudes laikā nav cits kandidāts, bet gan paša uzņēmuma radītais AI palīgs? Šī ir realitāte, ar kuru saskaras Anthropic, radītājiem aiz Claude. Kopš 2024. gada uzņēmums ir bijis spiests radikāli pārveidot savus tehniskos interviju testus, jo kandidāti tos arvien vairāk risina, izmantojot pašu Claude.
Tehniskā pārbaude kā “mājas darbs”: Sākotnējā ideja un tās sabrukums
Anthropic veiksmīgās darbības optimizācijas komanda ilgu laiku izmantoja paņēmienu, kas ir pazīstams daudzās tehnoloģiju nozarēs: “take-home” testu jeb mājas darbu. Kandidātiem tika dots laika posms, lai mājās vai jebkurā citā ērtā vidē atrisinātu sarežģītas programmēšanas un sistēmu optimizācijas problēmas. Mērķis bija vienkāršs – pārbaudīt ne tikai teorētiskās zināšanas, bet arī praktisko spēju strādāt ar reāliem izaicinājumiem bez intervētāja spiediena.
Tomēr, tiklīdz AI kodēšanas palīgi, it īpaši Claude, kļuva pietiekami spēcīgi, šī sistēma sāka šķelties. Kandidāti, vēloties iespaidot, sāka izmantot tieši to rīku, kuru viņi potenciāli vēlējās izstrādāt. Testi, kas bija paredzēti, lai atklātu cilvēka ekspertīzi, kļuva par mēru tam, cik veikli kandidāts prot formulēt uzdevumu AI. Anthropic īpaši saskārās ar problēmu, jo Claude tika specializēts uz dabisko valodu sapratni un koda ģenerēšanu, padarot to ideālu šāda veida “palīgu”.
AI un cilvēka sacensības: Kāpēc vienkārši “atspējot AI” nav risinājums?
Pirmā doma varētu būt: vienkārši aizliegt AI lietošanu testa laikā. Taču praktiski to ir neiespējami uzraudzīt, ja tests tiek veikts attālināti. Vēl svarīgāk – Anthropic kā uzņēmums, kas vērtē inovācijas, nevar vienkārši ignorēt jauno tehnoloģiju pastāvēšanu. Viņu mērķis nav atrast kandidātus, kas spēj strādāt tikai tehnoloģiju vakuumā, bet gan tos, kas var izmantot visus pieejamos rīkus gudri un efektīvi. Problēma nav AI lietošanā, bet gan tādā tās lietošanā, kas aizvieto, nevis papildina cilvēka prasmes un izpratni.
Tāpēc uzņēmums izvēlējās citu ceļu: ja testu nevar pasargāt no AI, tad testi ir jāmaina tā, lai AI tos nevarētu atrisināt vienkārši un mehāniski. Tas ir kā pastāvīga sacensība starp testa veidotājiem un pašu uzņēmuma tehnoloģiju.
Evolūcija uz priekšu: Kā izskatās “AI-izturīgs” tests?
Lai apturētu krāpšanos, Anthropic testiem bija jāpāriet vairākos posmos. Šīs izmaiņas sniedz aizraujošu ieskatu nākotnes tehnisko interviju pasaulē.
No koda uz kontekstu: Sarežģītākas un daudzslāņainākas problēmas
Vienkāršas algoritmiskās mīklas, kuras var ievadīt ChatGPT vai Claude, vairs nepietiek. Tagad testi pieprasa dziļāku sistēmu izpratni. Tiek prasīts ne tikai uzrakstīt funkciju, bet arī:
* Izstrādāt arhitektūras risinājumus reāliem, neskaidri definētiem biznesa uzdevumiem.
* Analizēt kompromisus starp dažādām pieejām, izskaidrojot priekšrocības un trūkumus.
* Integrēt risinājumu ar esošām sistēmām, ņemot vērā ierobežojumus un atkarības.
Šādi uzdevumi prasa plašāku redzesloku un stratēģisku domāšanu, ko pašreizējais AI vēl nevar pilnībā aizstāt.
Mutiska aizstāvēšana: “Kāpēc jūs izvēlējāties tieši šo ceļu?”
Pat ja kandidāts izmanto AI, lai ģenerētu koda skeletu, nākamais solis ir izšķirošs. Pēc “mājas darba” iesniegšanas seko detalizēta mutiska aizstāvēšana. Intervētāji iedziļinās lēmumu pamatos, prasa paskaidrot katru izvēli un pārbauda, vai kandidāts patiešām saprot ģenerētā koda darbības principus un ietekmi. Ja atbildes ir virspusējas vai neatbilst koda loģikai, tas uzreiz atklāj atkarību no rīka.
Realistiski scenāriji un ētikas izaicinājumi
Jaunākajās testa versijās iekļauti elementi, kas saistīti ar paša AI drošību un ētiku – Anthropic specializāciju. Kandidātiem var tikt lūgts izstrādāt pieeju, kā novērst prompt inženierijas uzbrukumus, vai apsvērt, kā to viņu risinājums varētu ietekmēt sistēmas drošību un taisnīgumu. Šie jautājumi prasa vērtījumu spriešanu un sarežģītu kompromisu svēršanu, kurās cilvēka lēmums paliek neaizstājams.
Ko tas nozīmē nākotnes kandidātiem un nozarei?
Anthropic pieredze nav izolēts gadījums. Tā ir priekšvēsture tam, kas gaida visu tehnoloģiju nozari. Tehniskās pārbaudes pārvēršas no zināšanu pārbaudes par spēju pārbaudi – spēju domāt kritiski, risināt neskaidras problēmas un efektīvi sadarboties ar AI kā instrumentu.
Kandidātiem tas nozīmē, ka vairs nepietiek tikai ar algoritmu iegaumēšanu vai spēju formulēt promptus. Veiksme būs atkarīga no:
1. **Dziļas izpratnes par pamatiem:** Ja jūs saprotat, kā lietas darbojas no iekšpuses, jūs varēsiet novērtēt un labot AI ģenerēto kodu.
2. **Kritisko domāšanu:** Spēja izvērtēt dažādus risinājumus, paredzēt sekas un argumentēt savu izvēli.
3. **Komunikācijas prasmēm:** Spēja skaidri paskaidrot sarežģītas tehniskas idejas – gan uz papīra, gan mutiski.
Uzņēmumiem šī situācija liek pārdomāt visu nākamo darbinieku atlases procesu. Tests vairs nevar būt statisks dokuments; tam jābūt dzīvam organismam, kas pastāvīgi attīstās līdzās tehnoloģijai.
Vai tas ir “kaķa un peles” spēles beigas?
Anthropic cīņa ar AI palīdzēto krāpšanos, iespējams, nekad nebeigsies pilnībā. Taču tā virza visu nozari uz augstāku līmeni. Tā liek mums visiem pārdomāt, kādas prasmes patiešām ir vērtīgas cilvēka un mašīnas simbiozes laikmetā. Galvenais mērķis nav noķert krāpniekus, bet gan atrast tos talantus, kas spēj vadīt un veidot nākamo AI paaudzi, nevis vienkārši to izmantot kā ātro atslēgu uz panākumiem. Un, kā rāda pieredze, pat uzņēmums, kas radījis Claude, atzīst, ka šos talantus var atklāt tikai ar cilvēka prāta palīdzību.