Tiesībsargs: mākslīgais intelekts var diskriminēt cilvēkusInteresanti fakti
Foto un virsraksts: VS
  • 2024. gada 7. novembris 15:14
  • VS
  • 5

Tiesībsargs: mākslīgais intelekts var diskriminēt cilvēkus

Tiesībsarga birojs brīdina par mākslīgā intelekta iespējamām diskriminācijas sekām

Kā informē Tiesībsarga birojs, pētījumā "Mākslīgā intelekta sistēmas un diskriminācijas aspekti" analizēts, kā pašlaik mākslīgā intelekta sistēmas ir pārkāpušas cilvēka pamattiesības tādās jomās kā nodarbinātība, izglītība, biometriskā identifikācija un pamatpakalpojumu pieejamība. Šīs ir četras no astoņām augsta riska jomām, ko definējusi Eiropas Savienības Mākslīgā intelekta regula, atzīmē birojā.

Starptautiski piemēri par mākslīgā intelekta radītajām nepilnībām

Birojā norāda, ka arī starptautiskā prakse rāda, ka mākslīgais intelekts var diskriminēt cilvēkus. Piemēram, Nīderlandē sistēmiskā riska identificēšanas krāpšanas apkarošanas sistēma nepamatoti apsūdzēja aptuveni 26 000 vecākus par krāpnieciskiem bērna kopšanas pabalstu pieprasījumiem. Tiesa atzina pārkāpumu, radot ievērojamas finansiālas grūtības ģimenēm. Turklāt ASV interneta tirdzniecības uzņēmuma "Amazon" piemērs liecina par dzimumu diskrimināciju, kad uzņēmuma darbā pieņemšanas algoritms par labākiem kandidātiem uzskatīja vīriešus, nepieņemot sievietes.

Mākslīgā intelekta rīku vājās vietas un iespējamas kļūdas

Stenfordas Universitātes pētījums atklāja, ka mākslīgā intelekta rīka "Chat GPT" detektori klasificē tekstu, ko rakstījuši cilvēki, kuriem angļu valoda nav dzimtā, kā mākslīgā intelekta radītu, neskatoties uz to, ka šiem cilvēkiem ir ierobežots vārdu krājums un gramatikas lietojums.

Prasības mākslīgā intelekta sistēmām

Tiesībsargs norāda, ka lai mākslīgais intelekts nebūtu drauds, jāvērš uzmanība datu kvalitātei un pārvaldībai. Tādējādi ir nepieciešams nodrošināt, lai mākslīgā intelekta sistēmas darbotos skaidri un saprotami, kā arī cilvēkiem būtu iespēja tām iejaukties un uzraudzīt to darbību.

Atbildība un uzraudzība augsta riska sistēmām

Pētījumā secināts, ka augsta riska mākslīgā intelekta sistēmām jābūt rūpīgi izstrādātām novērtēšanas procedūrām attiecībā uz datu kvalitāti, dokumentāciju un kiberdrošību. Anete Ilves, Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja, uzsver, ka mākslīgā intelekta kļūdas var radīt plašākas sekas, attiecoties uz visām sabiedrības grupām.

Būtība un nākotnes perspektīvas

Eiropas Savienībā šovasar stājās spēkā regula, kas nosaka jaunas normas mākslīgā intelekta jomā, un tā kļūs piemērojama visās ES dalībvalstīs, tostarp Latvijā, no 2026. gada 2. augusta. Pētījumu tiesībsarga uzdevumā izstrādāja Latvijas Universitātes pētniece Irēna Barkāne.

Šis raksts ir sagatavots, pamatojoties uz VS portāla informāciju.
Oriģinālo rakstu tu vari atrast šeit

Citas ziņas