Ο ρατσισμός της τεχνητής νοημοσύνης παραλίγο να τον στείλει στη φυλακή για ένα έγκλημα που δεν διέπραξε
Τα συστήματα τεχνητής νοημοσύνης μπορούν να διαιωνίσουν τις υπάρχουσες μορφές διακρίσεων και μεροληψίας, οδηγώντας σε «αυτοματοποίηση της ανισότητας»
- Οι απίθανες επενδύσεις των κροίσων
- Τρόμος στην Ξάνθη το βράδυ των Χριστουγέννων - Μπούκαραν σε σπίτι με όπλο και άρπαξαν χρήματα και λίρες
- Είκοσι χρόνια μετά το τσουνάμι της Ινδονησίας, ελπίζει μια μέρα να δει ξανά τον γιο της
- Πώς θα τα πληρώσετε τα τέλη κυκλοφορίας χωρίς πρόστιμο - Έως τις 31 Δεκεμβρίου η προθεσμία
Στις δημόσιες διοικήσεις σε όλη την Ευρώπη, τα συστήματα τεχνητής νοημοσύνης (AI) και αυτοματοποιημένης λήψης αποφάσεων (ADM) χρησιμοποιούνται ήδη εκτενώς.
Αυτά τα συστήματα, που συχνά χτίζονται σε αλγόριθμους αναγνωρίζουν τα πρόσωπά μας στο κοινό, οργανώνουν προγράμματα για την ανεργία και προβλέπουν ακόμη και τους βαθμούς των εξετάσεων.
Καθήκον τους είναι να προβλέπουν την ανθρώπινη συμπεριφορά και να λαμβάνουν αποφάσεις, ακόμη και σε ευαίσθητους τομείς όπως η πρόνοια, η υγεία και οι κοινωνικές υπηρεσίες.
Mπορούν να διαιωνίσουν τις υπάρχουσες μορφές διακρίσεων και μεροληψίας, οδηγώντας σε «αυτοματοποίηση της ανισότητας»
Όπως φαίνεται στις ΗΠΑ, όπου η αλγοριθμική αστυνόμευση έχει υιοθετηθεί άμεσα, αυτές οι αποφάσεις επηρεάζονται εγγενώς από υποκείμενες προκαταλήψεις και λάθη. Αυτό μπορεί να έχει καταστροφικές συνέπειες: στο Μίσιγκαν, τον Ιούνιο του 2020, ένας Μαύρος συνελήφθη, ανακρίθηκε και κρατήθηκε κατά τη διάρκεια της νύχτας για ένα έγκλημα που δεν διέπραξε. Είχε εντοπιστεί κατά λάθος από ένα σύστημα AI.
Αυτά τα συστήματα εκπαιδεύονται σε προϋπάρχοντα ανθρωπογενή δεδομένα, τα οποία είναι ελαττωματικά από την ίδια τους τη φύση. Αυτό σημαίνει ότι μπορούν να διαιωνίσουν τις υπάρχουσες μορφές διακρίσεων και μεροληψίας, οδηγώντας σε αυτό που η Virginia Eubanks αποκάλεσε «αυτοματοποίηση της ανισότητας», σύμφωνα με το Conversation.
Κρίνοντας υπεύθυνη την AI
Η ευρεία υιοθέτηση αυτών των συστημάτων εγείρει ένα επείγον ερώτημα: τι θα χρειαζόταν για να λογοδοτήσει ένας αλγόριθμος για τις αποφάσεις του;
Αυτό δοκιμάστηκε πρόσφατα στον Καναδά, όταν τα δικαστήρια διέταξαν μια αεροπορική εταιρεία να καταβάλει αποζημίωση σε έναν πελάτη που ενήργησε βάσει κακών συμβουλών που είχε δώσει από το chatbot που τροφοδοτούσε με AI. Η αεροπορική εταιρεία προσπάθησε να αντικρούσει τον ισχυρισμό δηλώνοντας ότι το chatbot ήταν «υπεύθυνο για τις δικές του ενέργειες».
Στην Ευρώπη, έχει γίνει μια θεσμική κίνηση για τη ρύθμιση της χρήσης της τεχνητής νοημοσύνης , με τη μορφή του νόμου περί τεχνητής νοημοσύνης που ψηφίστηκε πρόσφατα .
Αυτός ο νόμος στοχεύει στη ρύθμιση μεγάλων και ισχυρών συστημάτων τεχνητής νοημοσύνης, αποτρέποντάς τους από συστημικές απειλές, προστατεύοντας παράλληλα τους πολίτες από πιθανή κακή χρήση τους. Η έναρξη του νόμου συνοδεύτηκε από ένα ευρύ φάσμα προηγούμενων άμεσων δράσεων, πρωτοβουλιών και εκστρατειών που ξεκίνησαν οργανώσεις της κοινωνίας των πολιτών σε όλα τα κράτη μέλη της ΕΕ.
Αυτή η αυξανόμενη αντίσταση στα προβληματικά συστήματα AI έχει αποκτήσει δυναμική και ορατότητα τα τελευταία χρόνια. Επηρέασε επίσης τις επιλογές των ρυθμιστικών αρχών με κρίσιμους τρόπους, ασκώντας πίεση σε αυτές να εισαγάγουν μέτρα που προστατεύουν τα θεμελιώδη δικαιώματα.
Η τεχνητή νοημοσύνη επηρεάζει ήδη την καθημερινότητά μας
Για τους ευρωπαίους φορείς της κοινωνίας των πολιτών, ένα βασικό πρόβλημα είναι η έλλειψη ευαισθητοποίησης του κοινού ότι η τεχνητή νοημοσύνη χρησιμοποιείται για τη λήψη αποφάσεων σε πολλούς τομείς της ζωής τους. Ακόμη και όταν οι άνθρωποι γνωρίζουν, είναι συχνά ασαφές πώς λειτουργούν αυτά τα συστήματα ή ποιος πρέπει να θεωρηθεί υπεύθυνος όταν λαμβάνουν μια άδικη απόφαση.
Αυτή η έλλειψη ορατότητας σημαίνει ότι ο αγώνας για αλγοριθμική δικαιοσύνη δεν είναι μόνο πολιτικό ζήτημα, αλλά και συμβολικό: θέτει υπό αμφισβήτηση τις ίδιες τις ιδέες μας για αντικειμενικότητα και ακρίβεια.
Οι συζητήσεις για την τεχνητή νοημοσύνη κυριαρχούνται διαβόητα από τη διαφημιστική εκστρατεία και τον πανικό των μέσων ενημέρωσης , όπως έδειξε η πρώτη μας έρευνα. Κατά συνέπεια, οι ευρωπαϊκές οργανώσεις της κοινωνίας των πολιτών αναγκάζονται να επιδιώξουν δύο στόχους: να μιλήσουν ξεκάθαρα για το θέμα και να αμφισβητήσουν την άποψη της τεχνητής νοημοσύνης ως πανάκειας για κοινωνικά προβλήματα.
Η σημασία της ονομασίας του προβλήματος είναι εμφανής στη νέα μας αναφορά, όπου οι συνεντευξιαζόμενοι δίσταζαν ακόμη και να χρησιμοποιήσουν φράσεις όπως «Ηθική AI» ή δεν ανέφεραν καθόλου το «AI». Αντίθετα, χρησιμοποίησαν εναλλακτικούς όρους όπως «προηγμένα στατιστικά στοιχεία», «Αυτοματοποιημένη λήψη αποφάσεων» ή «συστήματα ADM».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις