Μπορεί η τεχνητή νοημοσύνη να γίνει «καθρέφτης» συναισθημάτων;
Εν μέσω πανδημίας, οι τεχνολογικές εταιρείες βρήκαν πρόσφορο έδαφος για επέκταση της χρήσης λογισμικών αναγνώρισης συναισθημάτων, σε διάφορους τομείς. Είναι όμως ασφαλής αυτή η εφαρμογή της τεχνητής νοημοσύνης; Οι ειδικοί λένε πως όχι…
- Παγιδευμένοι στα δάνεια σε ελβετικό φράγκο - Τι περιμένουν 200.000 οικογένειες
- Σε απόγνωση οι ένοικοι της πολυκατοικίας στους Αμπελόκηπους - Ακόμη περιμένουν ενημέρωση για την κρατική αρωγή
- «Σπεύσατε για χρυσό» - το σημείωμα των αναλυτών της Goldman Sachs
- Πάνω από 100 νεκροί σε μία μέρα από ισραηλινούς βομβαρδισμούς σε Γάζα και Λίβανο
Οι τράπεζες δεδομένων τεχνολογικών κολοσσών είναι προ πολλού γεμάτες με στοιχεία από φωτογραφίες και βίντεο ανθρώπων. Αρκεί να λάβει κανείς υπόψη του το πλήθος των αναρτήσεων στα μέσα κοινωνικής δικτύωσης και σε ηλεκτρονικές πλατφόρμες.
Προχωρώντας ένα βήμα πέρα από την χρήση συστημάτων τεχνητής νοημοσύνης (ΑΙ) για την αναγνώριση προσώπου, πλέον προσφέρουν σε ολοένα και περισσότερες εταιρείες, υπηρεσίες και φορείς νέες δυνατότητες, μέσω λογισμικών αναγνώρισης συναισθημάτων.
Σκανάροντας το πρόσωπο -συχνά χωρίς αυτό να είναι εν γνώσει ή με συγκατάθεση του ατόμου- η συγκεκριμένη τεχνολογία, γνωστή ως ERT, μπορεί να καταγράψει εκφράσεις λύπης ή χαράς, έκπληξης ή φόβου, απέχθειας ή θυμού. Ή τέλος πάντων όπως έτσι αυτή τα αναγνωρίζει…
Η τεχνολογία χρησιμοποιείται ήδη από πολλές εταιρείες για να καταγράψουν τις αντιδράσεις των καταναλωτών στα προϊόντα τους. Από διαφημιστικές εταιρείες. Στην πρόληψη προσωπικού. Στα φύλαξη αεροδρομίων και συνόρων. Από υπηρεσίες ασφαλείας και αστυνόμευσης. Ακόμη και για εκπαιδευτικούς ή ιατρικούς λόγους.
«Χρυσές» δουλειές, εν μέσω πανδημίας
«Κατά τη διάρκεια της πανδημίας, οι εταιρείες τεχνολογίας προώθησαν τα λογισμικά αναγνώρισης συναισθημάτων που διαθέτουν για την εξ αποστάσεως παρακολούθηση εργαζομένων, ακόμη και παιδιών», γράφει σε άρθρο της στο Nature η Κέιτ Κρόφορντ, κύρια αναλύτρια στη Microsoft και συγγραφέας του βιβλίου Atlas of AI (2021).
Μνημονεύει μάλιστα ως παράδειγμα το πρόγραμμα 4 Little Trees, που αναπτύχθηκε στο Χονγκ Κονγκ, για την αξιολόγηση των συναισθήματα μικρών μαθητών, κατά τη διάρκεια της τηλεκπαίδευσης, ένεκα καραντίνας.
Το πρόγραμμα «χαρτογραφεί τα χαρακτηριστικά του προσώπου για να καταχωρήσει κάθε μαθητή σε μια συναισθηματική κατηγορία, όπως ευτυχία, θλίψη, θυμό, αηδία, έκπληξη ή φόβο. Μετρά επίσης το “κίνητρο” και προβλέπει βαθμούς», αναφέρει η Κρόφορντ, η οποία -όπως και πολλοί άλλοι- ζητά να θεσπιστεί άμεσα ρυθμιστικό πλαίσιο για αυτή την ταχύτατα αναπτυσσόμενη αγορά, που μέχρι το 2024 αναμένεται να φτάσει σε αξία τα 56 δισεκατομμύρια δολάρια.
Διαφωνούν οι ειδικοί
O προβληματισμός στην επιστημονική κοινότητα για το εάν και κατά πόσο η τεχνητή νοημοσύνη (AI) μπορεί πράγματι να ανιχνεύσει και να ερμηνεύσει σωστά τα ανθρώπινα συναισθήματα, περισσεύει.
Μελέτη της Αμερικανικής Ένωσης Ψυχολογίας κατέληξε στο συμπέρασμα ότι δεν υπάρχουν αξιόπιστα στοιχεία για ακριβή πρόβλεψη της συναισθηματικής κατάστασης ενός ατόμου με αυτή τη μέθοδο.
Οι εκφράσεις των συναισθημάτων διαφέρουν άλλωστε, αναλόγως πολιτισμού και κοινωνίας.
«Οι εταιρείες τεχνολογίας μπορεί κάλλιστα να θέτουν ένα ερώτημα που είναι θεμελιωδώς λάθος», τονίζουν χαρακτηριστικά οι συντάκτες της μελέτης.
Επικίνδυνες παγίδες
Υπάρχουν πολλοί τρόποι που η τεχνολογία μπορεί να βλάψει τους ανθρώπους, παρατηρεί η Ντέμπορα Ράτζι, πτυχιούχος πληροφορικής και διακεκριμένη ακτιβίστρια κατά της φυλετικής προκατάληψης της AI.
«O ένας τρόπος είναι το σύστημα να μην λειτουργεί», λέει σε συνέντευξή της στο MIT Technology Review. «Εξαιτίας των υψηλών ποσοστών λάθους σε μη λευκούς, τους θέτει σε κίνδυνο. O δεύτερος τρόπος είναι όταν λειτουργεί ως τέλειο σύστημα αναγνώρισης, που μπορεί εύκολα να εργαλειοποιηθεί κατά ομάδων».
Ήδη, υπάρχει πληθώρα λαθών και παρερμηνειών από συστήματα ΑΙ στην ανάγνωση των εκφράσεων ατόμων της μαύρης φυλής. Τα έχουν καταγράψει έρευνες και αποτυπώσει με σαφήνεια το βραβευμένο ντοκιμαντέρ Coded Bias.
Nομικό πλαίσιο στην Ε.Ε
Μεταξύ αυτών, η Επιτροπή συγκαταλέγει την εκπαίδευση, την απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (συμπεριλαμβανομένων χρηματοοικονομικών υπηρεσιών), τη διαχείριση της μετανάστευσης και την απονομή δικαιοσύνης.
Σε συνδυασμό, δε, με ένα σχέδιο συντονισμού των κρατών μελών, τον νέο νομικό πλαίσιο -αναφέρει η Ευρωπαϊκή Επιτροπή- θα εγγυάται την ασφάλεια των δεδομένων και τα θεμελιώδη δικαιώματα των πολιτών και των επιχειρήσεων, ενισχύοντας παράλληλα την αποδοχή της ΑΙ, τις επενδύσεις και την καινοτομία σε όλη την Ε.Ε.
Όπως πάντως επεσήμαναν επικριτές της πρότασης, το κείμενο είναι επικίνδυνα ασαφές, δημιουργώντας έτσι πιθανά «παράθυρα» στον νόμο.
«Είναι απαραίτητη μια πιο αυστηρή προσέγγιση, δεδομένου ότι η βιομετρική αναγνώριση από απόσταση, μια εφαρμογή στην οποία η ΑΙ μπορεί να φέρει πρωτοφανείς εξελίξεις, εγκυμονεί εξαιρετικά υψηλούς κινδύνους βαθιάς και αντιδημοκρατικής παρείσφρησης στην ιδιωτική ζωή των πολιτών», ανέφερε χαρακτηριστικά σε σε ανακοίνωσή του ο Ευρωπαϊκός Επόπτης Προστασίας Δεδομένων (EDPS), ψέγοντας την Ευρωπαϊκή Επιτροπή για υπερβολικά χαλαρή στάση.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις