აკრძალეთ პროგნოზირებადი პოლიციის სისტემები ევროკავშირის AI აქტში, ამბობს სამოქალაქო საზოგადოება

აკრძალეთ პროგნოზირებადი პოლიციის სისტემები ევროკავშირის AI აქტში, ამბობს სამოქალაქო საზოგადოება


სამოქალაქო საზოგადოების ჯგუფები მოუწოდებენ ევროპელ კანონმდებლებს, აკრძალონ ხელოვნური ინტელექტის (AI) მხარდაჭერილი პროგნოზირებადი პოლიციის სისტემები, ამტკიცებენ, რომ ისინი არაპროპორციულად მიზნად ისახავს საზოგადოების ყველაზე მარგინალიზებულებს, არღვევს ფუნდამენტურ უფლებებს და აძლიერებს სტრუქტურულ დისკრიმინაციას.

ღია წერილში ევროკავშირის (EU) ინსტიტუტებისადმი – რომლებიც ამჟამად ცდილობენ დაარეგულირონ ხელოვნური ინტელექტის გამოყენება ბლოკის მოახლოებული ხელოვნური ინტელექტის აქტის (AIA) მეშვეობით – 38 სამოქალაქო საზოგადოების ორგანიზაციამ განაცხადა, რომ გადაწყვეტილების მიღების ავტომატური სისტემების მზარდი გამოყენება პროგნოზირებისთვის. ადამიანთა რისკის ან კრიმინალური ქცევის ალბათობის დახატვა ან შეფასება წარმოადგენს „მიუღებელ რისკს“ ადამიანების ფუნდამენტური უფლებებისთვის.

ეს მოიცავს სამართლიანი სასამართლოს უფლებას და უდანაშაულობის პრეზუმფციას, პირადი და ოჯახური ცხოვრების უფლებას და მონაცემთა დაცვის სხვადასხვა უფლებებს.

ჯგუფმა, რომელსაც ხელმძღვანელობს სამართლიანი სასამართლო და ევროპული ციფრული უფლებები (EDRI), თქვა: ”ეს პროგნოზები, პროფილები და რისკის შეფასებები, რომლებიც განხორციელდა ინდივიდების, ჯგუფების და ტერიტორიების ან მდებარეობების წინააღმდეგ, შეუძლია გავლენა მოახდინოს, ინფორმირება ან გამოიწვიოს პოლიციისა და სისხლის სამართლის შედეგები. , მათ შორის მეთვალყურეობა, გაჩერება და ჩხრეკა, ჯარიმები, დაკითხვა და პოლიციის კონტროლის სხვა ფორმები“.

მან ასევე დასძინა, რომ იმის გამო, რომ ძირითადი მონაცემები, რომლებიც გამოიყენება პროგნოზირებადი პოლიციის სისტემების შესაქმნელად, მომზადებასა და ფუნქციონირებისთვის, ხშირად ასახავს ისტორიულ სტრუქტურულ მიკერძოებასა და უთანასწორობას საზოგადოებაში, მათი განლაგება „შედეგად მიიყვანს რასობრივი ხალხის, თემებისა და გეოგრაფიული ტერიტორიების ზედმეტად პოლიციურობას და არაპროპორციულად. თვალყურს ადევნებდნენ, დაკითხეს, დააკავეს და დააპატიმრეს მთელ ევროპაში“.

სამართლიანი სასამართლოს იურიდიული და პოლიტიკის ოფიცერმა, გრიფ ფერისმა, თქვა: ”ერთადერთი გზა, რომ დავიცვათ ადამიანები ამ ზიანისგან და სხვა ფუნდამენტური უფლებების დარღვევისგან, არის მათი გამოყენების აკრძალვა.”

Fair Trials ადრე მოითხოვდა 2021 წლის სექტემბერში ხელოვნური ინტელექტისა და ავტომატიზირებული სისტემების გამოყენების ცალსახად აკრძალვას კრიმინალური ქცევის „პროგნოზირებად“.

როგორც ამჟამად დგას, AIA ჩამოთვლის ოთხ პრაქტიკას, რომლებიც ითვლება „მიუღებელ რისკად“ და რომლებიც, შესაბამისად, აკრძალულია, მათ შორის სისტემები, რომლებიც ამახინჯებენ ადამიანის ქცევას; სისტემები, რომლებიც იყენებენ კონკრეტული სოციალური ჯგუფების მოწყვლადობას; სისტემები, რომლებიც უზრუნველყოფენ ინდივიდების „ქულიანობას“; და საჯარო ადგილებში მყოფი ადამიანების დისტანციური, რეალურ დროში ბიომეტრიული იდენტიფიკაცია.

თუმცა, კრიტიკოსებმა ადრე უთხრეს Computer Weekly-ს, რომ მიუხედავად იმისა, რომ წინადადება ითვალისწინებს „ფართო ჰორიზონტალურ აკრძალვას“ ამ ხელოვნური ინტელექტის პრაქტიკის შესახებ, ასეთი გამოყენება კვლავ ნებადართულია სამართალდამცავ კონტექსტში და „აკრძალულია მხოლოდ იმდენად, რამდენადაც ისინი ქმნიან ფიზიკურ ან ფსიქოლოგიურ ზიანს“.

თავიანთ წერილში, რომელიც გამოქვეყნდა 1 მარტს, სამოქალაქო საზოგადოების ჯგუფები ცალსახად მოითხოვენ პროგნოზირებადი პოლიციის სისტემების შეყვანას ხელოვნური ინტელექტის აკრძალული პრაქტიკის ამ სიაში, რომელიც შეიცავს AIA-ს მე-5 მუხლში.

”იმისთვის, რომ აკრძალვა მნიშვნელოვნად აღსრულდეს, ისევე როგორც ხელოვნური ინტელექტის სისტემების სხვა გამოყენებასთან დაკავშირებით, რომლებიც არ განეკუთვნება ამ აკრძალვის ფარგლებს, დაზარალებულ პირებს ასევე უნდა ჰქონდეთ მკაფიო და ეფექტური მარშრუტები ამ სისტემების გამოყენების წინააღმდეგ კრიმინალური გზით. პროცედურა, რათა მათ, ვისი თავისუფლება ან სამართლიანი სასამართლოს უფლება ემუქრებათ, საშუალება მისცენ, მოიძიონ დაუყოვნებლივი და ეფექტური გამოსწორება“, – ნათქვამია განცხადებაში.

პასუხისმგებლობის ნაკლებობა

გემა გალდონ-კლაველმა, ბარსელონაში დაფუძნებული ალგორითმული აუდიტის საკონსულტაციო კომპანიის Eticas-ის პრეზიდენტმა და დამფუძნებელმა, თქვა, რომ მისმა ორგანიზაციამ ხელი მოაწერა წერილს ევროპელი კანონმდებლებისადმი, რადგან ამჟამინდელი ანგარიშვალდებულება არ არის AI სისტემების შემუშავებისა და დანერგვის შესახებ.

”თუ ჩვენ გვსურს ვენდოთ ხელოვნურ ინტელექტის სისტემებს, რათა გადაწყვიტოს ადამიანების მომავალი და ცხოვრების შანსები, ეს უნდა იყოს გამჭვირვალე მათი მუშაობის შესახებ, მათ განვითარებადებმა უნდა დაამტკიცონ, რომ მიიღეს ყველა შესაძლო ზომა ასეთი სისტემებისა და საჯარო ადმინისტრაციების მიკერძოებისა და არაეფექტურობის მოსაშორებლად. მათი გამოყენების მცდელობამ უნდა შეიმუშაოს და აღასრულოს ანაზღაურების სისტემები მათთვის, ვინც გრძნობს, რომ მათი უფლებები ირღვევა ასეთი სისტემების მიერ“, – განუცხადა მან Computer Weekly-ს.

„როგორც ალგორითმული აუდიტორები, Eticas-ში ხშირად ვხედავთ სისტემებს, რომლებიც ძალიან განსხვავებულად მუშაობენ იმისგან, რასაც რეკლამებენ და რა არის სოციალურად მისაღები, და ვშიშობთ, რომ ხელოვნური ინტელექტის გაფართოება მაღალი რისკის და მაღალი ზემოქმედების კონტექსტში არ უნდა მოხდეს, თუ მარეგულირებელი ეკოსისტემა არ არსებობს. .

„ჩვენ გვჯერა, რომ ხელოვნური ინტელექტის შესაძლებლობებს აფერხებს კომერციული AI პრაქტიკა, რომელიც ამცირებს რისკებს და ზედმეტ შედეგებს იძლევა, ყოველგვარი გამჭვირვალობისა და ანგარიშვალდებულების გარეშე.

100-ზე მეტმა სამოქალაქო საზოგადოების ორგანიზაციამ ხელი მოაწერა ღია წერილს 2021 წლის ნოემბერში, რომელშიც მოუწოდებდა ევროპელ პოლიტიკოსებს შეცვალონ AIA ისე, რომ იგი სათანადოდ დაიცვას ადამიანის ფუნდამენტური უფლებები და გაითვალისწინოს ხელოვნური ინტელექტის სტრუქტურული გავლენა.

დიდი ხნის კრიტიკა

მსგავსი არგუმენტები დიდი ხანია მოყვანილია პროგნოზირებადი პოლიციის სისტემების კრიტიკოსების მიერ. მაგალითად, 2020 წლის მარტში, გაერთიანებული სამეფოს თანასწორობისა და ადამიანის უფლებათა კომისიის (EHRC) მიერ გაეროში წარდგენილ მტკიცებულებებში ნათქვამია, რომ პროგნოზირებადი პოლიციის გამოყენებამ შეიძლება გაიმეოროს და გააფართოოს „დისკრიმინაციის ნიმუშები პოლიციაში, ხოლო მიკერძოებული პროცესების ლეგიტიმაციას მისცემს. “.

მან დასძინა: ”დიდ მონაცემებზე დაყრდნობამ, რომელიც მოიცავს დიდი რაოდენობით პერსონალურ ინფორმაციას, შეიძლება ასევე დაარღვიოს კონფიდენციალურობის უფლებები და გამოიწვიოს თვითცენზურა, რასაც თანმდევი დამამშვიდებელი ეფექტი ექნება გამოხატვისა და ასოციაციის თავისუფლებაზე.”

მათ წიგნში, პოლიცია: საველე მეგზურირომელიც აანალიზებს თანამედროვე პოლიციის ისტორიასა და მეთოდებს, ავტორები დევიდ კორეა და ტაილერ უოლი ასევე ამტკიცებენ, რომ დანაშაულის დონე და სხვა კრიმინალური აქტივობის მონაცემები ასახავს პოლიციის უკვე რასიზირებულ ნიმუშებს, რაც ქმნის ეჭვისა და აღსრულების მანკიერ წრეს, განსაკუთრებით შავი და ყავისფერი უმცირესობების მიმართ. .

„პროგნოზირებადი პოლიცია… იძლევა ერთი შეხედვით ობიექტურ მონაცემებს პოლიციისთვის, რომ ჩაერთოს იმავე პრაქტიკაში, მაგრამ ისე, როგორც ჩანს თავისუფალი რასობრივი პროფილისგან… ამიტომ გასაკვირი არ უნდა იყოს, რომ პროგნოზირებადი პოლიცია ასახავს მომავლის ძალადობას ღარიბებში. აწმყო“, – განაცხადეს მათ.

2021 წლის 7 სექტემბერს არაერთმა აკადემიკოსმა გააფრთხილა გაერთიანებული სამეფოს ლორდთა პალატის საშინაო საქმეთა და იუსტიციის კომიტეტი (HAJC) პროგნოზირებადი პოლიციის საფრთხის შესახებ.

როზამუნდ ელიზ ვან ბრაკელმა, ზედამხედველობის კვლევების ქსელის თანადირექტორმა, აღნიშნა, რომ მონაცემები „ხშირად გამოიყენება დაკავების მონაცემები და აშკარა გახდა, რომ ეს მონაცემები მიკერძოებულია, განსაკუთრებით პოლიციის მიერ ეთნიკური პროფილის შედეგად“ და რომ ყოველთვის “ამ მონაცემს აქვს ეს სოციალური მიკერძოება, პროგრამული უზრუნველყოფა ყოველთვის იქნება მიკერძოებული”.

”პირველი ნაბიჯი აქ არ არის ტექნოლოგიური კითხვა, ეს არის საკითხი იმის შესახებ, თუ რამდენად არის პოლიცია და სოციალური პრაქტიკა უკვე დისკრიმინაციული ან უკვე მიკერძოებული”, – თქვა მან. „არ მგონია, რომ ამ პრობლემის გადაჭრა ტექნოლოგიის შეცვლით ან ხელოვნური ინტელექტის პოვნის მცდელობით, მიკერძოებულობის გამოსავლენად არ შეიძლება“.

სიმძლავრის შეუსაბამობები

HAJC-თან საუბრისას 2021 წლის ოქტომბერში, კარენ იუნგი – ბირმინგემის სამართლის სკოლის სამართლის, ეთიკისა და ინფორმატიკის ინტერდისციპლინარული პროფესორი – აღნიშნა, რომ პროგნოზირებადი პოლიციის ტექნოლოგიების გამოყენებას აქვს პოტენციალი მასიურად გააძლიეროს არსებული ძალაუფლების შეუსაბამობები საზოგადოებაში, რადგან „რეალობა არის ჩვენ მიდრეკილი ვიყავით გამოვიყენოთ ისტორიული მონაცემები, რაც გვაქვს და გვაქვს მონაცემები მასებში, ძირითადად დაბალი სოციალურ-ეკონომიკური ფენის ადამიანების შესახებ“.

„ჩვენ არ ვქმნით კრიმინალური რისკის შეფასების ინსტრუმენტებს ინსაიდერული ვაჭრობის დასადგენად, ან ვინ აპირებს შემდეგი სახის კორპორატიული თაღლითობის ჩადენას, რადგან ჩვენ არ ვეძებთ ამ ტიპის დანაშაულებს“, – თქვა მან.

„ეს მართლაც დამღუპველია… ჩვენ ვუყურებთ დიდი მოცულობის მონაცემებს, რომლებიც ძირითადად ღარიბ ადამიანებზეა, და ვაქცევთ მათ ღარიბი ადამიანების პროგნოზირების ინსტრუმენტად და საზოგადოების მთელ ნაწილს ამ ინსტრუმენტებით ხელუხლებლად ვტოვებთ.

”ეს არის სერიოზული სისტემური პრობლემა და ჩვენ უნდა დავსვათ ეს კითხვები”, – თქვა იუნგმა. „რატომ არ ვაგროვებთ მონაცემებს, რაც ახლა სავსებით შესაძლებელია, ინდივიდუალური პოლიციის ქცევის შესახებ? ჩვენ შესაძლოა დაგვედევნა თაღლითი პირები, რომლებიც მიდრეკილნი არიან ქალებზე ძალადობისკენ. ჩვენ გვაქვს ტექნოლოგია, უბრალოდ არ გვაქვს პოლიტიკური ნება, რომ გამოვიყენოთ იგი საჯარო უფლებამოსილების განხორციელების შესამოწმებლად.”

Facebook Comments

Share this post

კომენტარის დატოვება

თქვენი ელფოსტის მისამართი გამოქვეყნებული არ იყო.


has been added to your cart.
გადახდა