Dirbtinio intelekto pinklės: kada „ChatGPT“ meluoja ir kaip apsisaugoti? Pereiti į pagrindinį turinį

Dirbtinio intelekto pinklės: kada „ChatGPT“ meluoja ir kaip apsisaugoti?

2025-04-16 11:52
LNK inf.

„ChatGPT“ – dirbtinis intelektas, kurį jau ir lietuviai pamėgo ne tik informacijos paieškai, bet ir įvairioms darbinėms užduotims. Vis dėlto, naudojantis šia technologija galima lengvai pakliūti į jos pinkles.

Dirbtinio intelekto pinklės: kada „ChatGPT“ meluoja ir kaip apsisaugoti?
Dirbtinio intelekto pinklės: kada „ChatGPT“ meluoja ir kaip apsisaugoti? / Freepik.com nuotr.

Kokie yra atvejai, kai ši technologija mums meluoja, kaip nuo tokių situacijų apsisaugoti ir ką daryti, jei dėl to patyrėme žalą, plačiau papasakojo „CEE Attorneys“ e.komercijos grupės vadovaujantis teisininkas Paulius Sartatavičius.

– Ką turime žinoti, kad nenukentėtume nuo dirbtinio intelekto?

– Pirmas dalykas, į ką turėtume atkreipti dėmesį, kad ta informacija, kuri yra pateikiama dirbtinio intelekto, nebūtinai bus teisinga. Jeigu pasižiūrėtume šių kalbos modelių naudojimosi taisykles, labai aiškiai pamatytume, kad kiekvienas jų yra įsirašęs nuostatą, kad labai gerbia ir laikosi reglamentų, kurie susiję su duomenų teisingumu, bet internetas nėra 100 proc. saugi erdvė, dėl to turite tikrinti tai, ką gaunate ir, žinoma, žiūrėti, ką jūs įkeliate į tas sistemas.

– O gal yra rėmai, kiek yra neteisingos informacijos ir kiek teisingos?

– Sunku pasakyti, čia galbūt iš techninės pusės galėtų specialistai atsakyti. Ten matuojami tokie vienetai, kur net nebuvau girdėjęs, kurie reiškia tiesiog neįtikėtiną kiekį duomenų, kuriais apsimoko šie būtent robotai – dirbtinio intelekto įrankiai. Tai numatyti, kiek tos neteisingos informacijos yra, labai sunku. Kitas dalykas – reikia suprasti, kad šie robotai ne tik apima testinę informaciją, kuri yra prieinama duomenų baseinuose, bet ir prikuria. Mintis yra ta, kad jie užsiima spėjimais lygiai taip pat, kaip ieško tam tikros informacijos dalies tiesiogiai, o paskui sujungia.

Pexels nuotr.

– Ką reikėtų žinoti prieš naudojantis?

– Jeigu kalbame apie dirbtinio intelekto įrankių naudojimą įmonėse, pavyzdžiui, komercinei veiklai, tai mums pirmiausia reikia pradėti nuo politikos dėl dirbtinio intelekto naudojimo apskritai. Kadangi praktikoje matome, kad darbuotojai tai naudoja bet kaip, ta prasme – iš asmeninių paskyrų, susikuria, vienas naudoja vienokią sistemą, kitas kitokią. Informacijos niekas nepatikrina – kur ji sukeliama arba kuri yra gaunama, ar ji yra teisinga.

Pirmas žingsnis ir turėtų būti įmonėms pasidaryti auditą ir sukurti politiką – tai yra įmonės politiką, kaip tai naudojame.

– Ką reiškia dirbtinio intelekto haliucinacijos?

– Tai yra sukurtas elementas, kai truputėlį prikuriama realybėje nebuvusių dalykų. Jeigu yra sukurta teismų praktika – tai yra haliucinacija. Prieš kelias savaites nemalonumų sulaukė advokatas, skundą Lietuvos Aukščiausiajam Teismui surašęs taip pat su dirbtinio intelekto pagalba.

Tiesą sakant, labai įdomus šis momentas buvo, kadangi tai nėra naujas dalykas – Amerikoje jau prieš kelis metus toks atvejis nuėjo iki teismo: teisminio proceso metu buvo cituojamos bylos, kurios neegzistuoja ir tada kilo klausimas, iš kur jos atsirado.

– Ar bausmės jau yra aiškios?

– Neturime vieningos reguliacijos, vieningo reglamento, kuris numatytų, kas yra bausmė. Tai tenka žalą patyrusiam asmeniui įrodinėti ir sakyti, kad jis patyrė kažkokią žalą. Jeigu kalbame apie tą institucinį, sakysime, daugiau administracinį požiūrį, tai Europoje turime Dirbtinio intelekto aktą, kuriame baudos šiuo metu dar negalioja, bet jos jau yra įrašytos. Jeigu kalbame apie Ameriką – tokio akto nėra, bet ten yra individualių ginčų klausimas.

Visas LNK reportažas – vaizdo įraše:

 

– O gal yra aiškus laikotarpis, kada tos baudos Europoje įsigalios?

– 2026 metais įsigalios ir iki to laiko reikėtų visiems pasiruošti vidines savo politikas ir peržiūrėti, kaip mes naudojame tuos įrankius. Tačiau jau dabar yra ne vienas atvejis, kur buvo priteisos sumos arba tiesiog susitarta taikos sutartimis. Tai vienas iš tokių atvejų Amerikoje, kai buvo susitarta dėl diskriminacijos, kada dirbtinio intelekto įrankis realiai diskriminavo tam tikro amžiaus žmones dėl priėmimo į darbą. Buvo susitarta dėl 300 tūkst. dolerių sumos.

– O mes patys mokome dirbtinį intelektą?

– Visiškai teisingai. Šie įrankiai mokosi iš to, ką mes įdedame. Bet yra svarbus dalykas – ar mes leidžiame mokytis. Kadangi sistemos turi varnelę, kur gali atsižymėti, kad leidi tuo įdėtu turiniu mokytis ir teikti tuos atsakymus  kitiems asmenims.

– Kas yra galutinis atsakovas jeigu nukentėjome nuo dirbtinio intelekto?

– Labai priklauso nuo to, kokią sistemą naudojame. Pavyzdžiui, oro linijų bendrovė sukūrė savo botą ir jo naudojimosi metu kilo tam tikra žala arba naudotojas pareiškė kažkokias pretenzijas, tai atsako tas juridinis asmuo ar tas vienetas, kuris pateikia vartotojui. Jeigu naudojamės tiesiai iš gamintojo – „ChatGPT“ – tai mums yra galimybė kreiptis į tą gamintoją. Viskas labai priklauso nuo to, iš kur mes gauname sistemą, kuria naudojamės.

Naujausi komentarai

Komentarai

  • HTML žymės neleidžiamos.

Komentarai

  • HTML žymės neleidžiamos.
Atšaukti
Komentarų nėra