Η ΕΕ θέλει να εξαλείψει την αλγοριθμική προκατάληψη

Η ΕΕ θέλει να εξαλείψει την αλγοριθμική προκατάληψη

Όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων της Ευρωπαϊκής Ένωσης που τέθηκε σε ισχύ το 2016, έτσι και ο επερχόμενος νόμος για την Τεχνητή Νοημοσύνη θα έχει εξωεδαφικό πεδίο εφαρμογής και παγκόσμιο αντίκτυπο. Λαμβάνοντας υπόψη το ευρύ πεδίο εφαρμογής του νόμου για την τεχνητή νοημοσύνη και τους οικονομικούς κινδύνους που σχετίζονται με τη μη

Όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων της Ευρωπαϊκής Ένωσης που τέθηκε σε ισχύ το 2016, έτσι και ο επερχόμενος νόμος για την Τεχνητή Νοημοσύνη θα έχει εξωεδαφικό πεδίο εφαρμογής και παγκόσμιο αντίκτυπο.

Λαμβάνοντας υπόψη το ευρύ πεδίο εφαρμογής του νόμου για την τεχνητή νοημοσύνη και τους οικονομικούς κινδύνους που σχετίζονται με τη μη συμμόρφωση, οι επιχειρήσεις πρέπει να προετοιμαστούν τώρα για αυτές τις μελλοντικές κανονιστικές αλλαγές και να αναλάβουν προληπτικά πρωτοβουλίες για τη συμμόρφωση με τις βέλτιστες πρακτικές από νωρίς

Η Ευρωπαϊκή Επιτροπή παρουσίασε τον Απρίλιο του 2021, πρόταση για ένα νομικό πλαίσιο σχετικά με την Τεχνητή Νοημοσύνη (TN), επιδιώκοντας να αντιμετωπίσει τους κινδύνους που δημιουργούνται ειδικά από εφαρμογές ΤΝ, προτείνοντας έναν κατάλογο εφαρμογών υψηλού κινδύνου και θέτοντας σαφείς απαιτήσεις και καθορίζοντας συγκεκριμένες υποχρεώσεις για τους χρήστες και τους παρόχους εφαρμογών ΤΝ υψηλού κινδύνου.

Από το 2018, η ΕΕ μελετά ένα πλαίσιο κανόνων για την θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη, το λεγόμενο Artificial Intelligence Act (Πράξη για την Τεχνητή Νοημοσύνη), το οποίο θα έχει συνέπειες πέραν των συνόρων της και, όπως και ο Γενικός Κανονισμός της ΕΕ για την Προστασία των Δεδομένων, θα εφαρμόζεται σε κάθε ίδρυμα, συμπεριλαμβανομένων των βρετανικών τραπεζών, που εξυπηρετεί πελάτες της ΕΕ.

Το σχέδιο περιλαμβάνει πρόταση για την εισαγωγή αυστηρών κανόνων σχετικά με τον τρόπο με τον οποίο η τεχνητή νοημοσύνη χρησιμοποιείται για το φιλτράρισμα αιτήσεων για εργασία, πανεπιστήμιο ή κοινωνική πρόνοια ή – στην περίπτωση των δανειστών – για την αξιολόγηση της πιστοληπτικής ικανότητας των δυνητικών δανειοληπτών.

Οι αξιωματούχοι της ΕΕ ελπίζουν ότι με την πρόσθετη εποπτεία και τους περιορισμούς στον τύπο των μοντέλων τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν, οι κανόνες θα περιορίσουν το είδος των διακρίσεων που θα μπορούσαν να επηρεάσουν σημαντικές αποφάσεις, όπως η χορήγηση ενός δανείου.

«Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την ανάλυση ολόκληρης της οικονομικής σας κατάστασης, συμπεριλαμβανομένων των δαπανών, της αποταμίευσης, άλλων χρεών, ώστε να προκύψει μια πιο ολοκληρωμένη εικόνα», δήλωσε στην Guardian η Σάρα Κοσιάνσκι, ανεξάρτητη σύμβουλος χρηματοοικονομικής τεχνολογίας.

«Εάν σχεδιαστούν σωστά, τα συστήματα αυτά μπορούν να παρέχουν ευρύτερη πρόσβαση σε προσιτές πιστώσεις», πρόσθεσε.

Όμως, ένας από τους μεγαλύτερους κινδύνους είναι η ακούσια προκατάληψη, κατά την οποία οι αλγόριθμοι καταλήγουν να αρνούνται δάνεια ή τραπεζικούς λογαριασμούς σε ορισμένες ομάδες, συμπεριλαμβανομένων των γυναικών, των μεταναστών ή των έγχρωμων ατόμων. Μέρος του προβλήματος είναι ότι τα περισσότερα μοντέλα τεχνητής νοημοσύνης μπορούν να μάθουν μόνο από ιστορικά δεδομένα με τα οποία έχουν τροφοδοτηθεί, πράγμα που σημαίνει ότι θα μάθουν ποιο είδος πελάτη έχει δανειοδοτηθεί στο παρελθόν και ποιοι πελάτες έχουν χαρακτηριστεί ως αναξιόπιστοι.

«Συχνά διαπιστώνεται ότι το φύλο και η εθνικότητα παίζουν ρόλο στις διαδικασίες λήψης αποφάσεων της τεχνητής νοημοσύνης με βάση τα δεδομένα στα οποία έχει εκπαιδευθεί. Παράγοντες, δηλαδή, που δεν έχουν καμία σχέση με την ικανότητα ενός ατόμου να αποπληρώσει ένα δάνειο», τόνισε η Κοσιάνσκι.

Επιπλέον, ορισμένα μοντέλα είναι σχεδιασμένα ώστε να είναι «τυφλά» στα λεγόμενα προστατευόμενα χαρακτηριστικά, δηλαδή δεν έχουν σκοπό να εξετάσουν την επιρροή του φύλου, της φυλής, της εθνικότητας ή της αναπηρίας. Αλλά αυτά τα μοντέλα τεχνητής νοημοσύνης μπορούν ακόμη να κάνουν διακρίσεις ως αποτέλεσμα της ανάλυσης άλλων δεδομένων, όπως οι ταχυδρομικοί κώδικες, οι οποίοι μπορεί να συσχετίζονται με ιστορικά μειονεκτούσες ομάδες που δεν έχουν αιτηθεί, εξασφαλίσει ή αποπληρώσει δάνεια ή υποθήκες.

Επιπλέον, στις περισσότερες περιπτώσεις, όταν ένας αλγόριθμος λαμβάνει μια απόφαση, είναι δύσκολο για οποιονδήποτε να κατανοήσει πώς κατέληξε σε αυτό το συμπέρασμα. Αυτό σημαίνει ότι οι τράπεζες, για παράδειγμα, μπορεί να δυσκολεύονται να εξηγήσουν τι θα μπορούσε να έχει κάνει διαφορετικά ένας αιτών για να πληροί τις προϋποθέσεις για ένα δάνειο ή μια πιστωτική κάρτα ή αν η αλλαγή του φύλου ενός αιτούντος από άντρα σε γυναίκα, μπορεί να οδηγήσει σε διαφορετικό αποτέλεσμα.

Ο Αλεξάντρου Τσιρτσιουμάρου, επικεφαλής της ευρωπαϊκής δημόσιας πολιτικής στο Ινστιτούτο Ada Lovelace, δήλωσε στην Guardian, ότι η Πράξη για την Τεχνητή Νοημοσύνη, η οποία θα μπορούσε να τεθεί σε ισχύ στα τέλη του 2024, θα ωφελήσει τις εταιρείες τεχνολογίας που θα καταφέρουν να αναπτύξουν αυτό που αποκαλεί «αξιόπιστα μοντέλα τεχνητής νοημοσύνης» που συμμορφώνονται με τους νέους κανόνες της ΕΕ.

Ο Ντάρκο Ματόφσκι, διευθύνων σύμβουλος και συνιδρυτής της νεοφυούς επιχείρησης τεχνητής νοημοσύνης causaLens με έδρα το Λονδίνο, πιστεύει ότι η εταιρεία του συγκαταλέγεται μεταξύ αυτών. Ο επιχειρηματίας δήλωσε ότι η εταιρεία του προσφέρει μια πιο προηγμένη μορφή τεχνητής νοημοσύνης που αποφεύγει την πιθανή μεροληψία, λαμβάνοντας υπόψη και ελέγχοντας τις συσχετίσεις διάκρισης στα δεδομένα. Πιστεύει ότι η διάδοση των λεγόμενων αιτιωδών μοντέλων τεχνητής νοημοσύνης όπως το δικό του, θα οδηγήσει σε καλύτερα αποτελέσματα για περιθωριοποιημένες ομάδες που μπορεί να έχουν χάσει εκπαιδευτικές και οικονομικές ευκαιρίες.

«Είναι πραγματικά δύσκολο να κατανοήσουμε την κλίμακα της ζημίας που έχει ήδη προκληθεί, επειδή δεν μπορούμε πραγματικά να επιθεωρήσουμε αυτό το μοντέλο», είπε.

«Δεν ξέρουμε πόσοι άνθρωποι δεν κατάφεραν να φοιτήσουν στο πανεπιστήμιο εξαιτίας ενός αλγόριθμου. Δεν ξέρουμε πόσοι άνθρωποι δεν μπόρεσαν να πάρουν το στεγαστικό τους δάνειο εξαιτίας των προκαταλήψεων ενός αλγόριθμου», τόνισε.

Δήλωσε επίσης, ότι το θέμα είναι να διασφαλιστεί ότι τα μοντέλα τεχνητής νοημοσύνης θα αντανακλούν τις τρέχουσες κοινωνικές μας αξίες και θα αποφεύγουν τη διαιώνιση οποιασδήποτε ρατσιστικής, ανιστόρητης ή μισογυνιστικής απόφασης.

«Η κοινωνία πιστεύει ότι πρέπει να αντιμετωπίζουμε τους πάντες ισότιμα, ανεξάρτητα από το φύλο, τον ταχυδρομικό κώδικα, ή τη φυλή στην οποία ανήκουν. Οπότε οι αλγόριθμοι θα πρέπει όχι μόνο να προσπαθούν να το κάνουν, αλλά και να το εγγυώνται», τόνισε.

ΠΗΓΗ: Guardian

www.ertnews.gr

Μπορεί να σας ενδιαφέρουν