Άντρες γιατροί, γυναίκες νοσοκόμες: Πώς η Τεχνητή Νοημοσύνη αναπαράγει τα έμφυλα στερεότυπα
Τα αλγοριθμικά εργαλεία που χρησιμοποιεί η Τεχνητή Νοημοσύνη τείνουν να διαιωνίζουν ξεπερασμένα στερεότυπα για τους ρόλους των φύλων στα επαγγέλματα υγείας. Τι αποκαλύπτει μεγάλη έρευνα
- Μητέρα εξέδιδε την 15χρονη κόρη της σε παιδόφιλο - Καταδικάστηκε σε φυλάκιση πέντε ετών
- «Αγνοούσα όσα συνέβαιναν», είπε για την αυτοκτονία του πατέρα της η «αγνοουμένη» Αμερικανίδα
- Νεκρή η γυναίκα που έπεσε από τον 7ο όροφο ξενοδοχείου στη Μιχαλακοπούλου - Φωτογραφίες από το σημείο
- Η πρώτη απεργία παγκοσμίως από τον Πανελλήνιο Σύλλογο Διαχειριστών Ακινήτων τύπου Airbnb
H Τεχνητή Νοημοσύνη είναι εικόνα της κοινωνίας και της μοιάζει. Ως εκ τούτου τείνει να αναπαράγει κοινωνικές προκαταλήψεις που αφορούν το φύλο, την τάξη και την φυλή. Για το Chat GPT και για άλλες αντίστοιχες εφαρμογές παραγωγικής τεχνητής νοημοσύνης, οι νοσηλευτές είναι εκ προοιμίου γυναίκες και οι γιατροί σε υψηλές θέσεις είναι σχεδόν πάντα άντρες. Σε αυτό το συμπέρσμα κατέληξε μεγάλη διεπιστημονική έρευνα, του αυστραλέζικου πανεπιστημίου Φλίντερς, για το πώς οι αλγόριθμοι που χρησιμοποιούν τα γλώσσικά μοντέλα ΑΙ διαιωνίζουν τα έμφυλα στερεότυπα στα επαγγέλματα υγείας.
Το ερώτημα που έθεσαν οι ερευνητές-τριες ήταν το εξής: «Πώς απεικονίζουν τα μεγάλα γλωσσικά μοντέλα (Large Language Models) το φύλο των ιατρών, των χειρουργών και των νοσηλευτών σε παραγόμενες ιστορίες;
Τεχνητή Νοημοσύνη και προκατάληψη
Αρχικά ζήτησαν από πλατφόρμες όπως το ChatGPT της Οpen AI, το Gemini της Google και το Llama της Meta, να φτιάξουν 6.000 ιστορίες που πρωταγωνιστούν τα παραπάνω επαγγέλματα, «ταΐζοντάς» τα με 500 διαφορετικές προτροπές- αιτήματα. Στη συνέχεια, πρόσθεσαν επιπλέον πληροφορίες για την επαγγελματική προϋπηρεσία και την προσωπικότητα κάθε ατόμου: Κατά πόσο ήταν ευχάριστοι, συνεργάσιμοι, ευσυνείδητοι, νευρωτικοί κ.ά. Με βάση τα επιπλέον δεδομένα ζητήθηκε από τις πλατφόρμες να παράγουν άλλες 43.200 ιστορίες.
Οι γιατροί με ευχάριστη προσωπικότητα και συνεργάσιμο πνεύμα ήταν πιο συχνά γυναίκες, ενώ οι γιατροί που είχαν υψηλή θέση στην ιεραρχία, ήταν πιο συχνά άντρες
Στις πρώτες 6.000 ιστορίες το 98% των νοσηλευτών περιγράφηκαν με αντωνυμίες θηλυκού γένους (she/her). Στις περιγραφές των γιατρών τα ποσοστά των θηλυκών αντωνυμιών κυμαίνονταν από 50% ως 84% και από 36% ως 84%, ανάλογα. Στις υπόλοιπες 43.200 ιστορίες, όταν προστίθενται επιπλέον πληροφορίες, οι γιατροί με ευχάριστη προσωπικότητα και συνεργάσιμο πνεύμα ήταν πιο συχνά γυναίκες, ενώ οι γιατροί που είχαν υψηλή θέση στην ιεραρχία, ήταν πιο συχνά άντρες.
Η έρευνα δημοσιεύθηκε στο ακαδημαϊκό ηλεκτρονικό περιοδικό JAMA network, της Αμερικάνικης Ιατρικής Εταιρείας. Στα συμπεράσματα τονίζεται ότι υπάρχει επείγουσα ανάγκη επικαιροποίησης των δημόσια προσβάσιμων εργαλείων, ώστε να υπάρχει δίκαιη εκπροσώπηση των φύλων στα βασικά επαγγέλματα υγειονομικής περίθαλψης «Καθώς τα LLM υιοθετούνται όλο και ευρύτερα σε όλη την υγειονομική περίθαλψη και εκπαίδευση, απαιτείται συνεχής παρακολούθηση αυτών των εργαλείων για να διασφαλιστεί ότι αντικατοπτρίζουν ένα ποικιλόμορφο εργατικό δυναμικό, ικανό να εξυπηρετεί αποτελεσματικά τις ανάγκες της κοινωνίας».
Υπερ-διόρθωση
Το γεγονός ότι σε κάποιες περιπτώσεις οι γυναίκες γιατροί υπερ-εκπροσωπούνται, οφείλεται σύμφωνα με ερευνητές στις διορθώσεις που κάνουν οι πλατφόρμες στους αλγορίθμους τους, μετά από πυρά που δέχθηκαν για την αναπαραγωγή κοινωνικών προκαταλήψεων.
«Έχει γίνει προσπάθεια να διορθωθούν [οι αλγοριθμικές προκαταλήψεις] και είναι ενδιαφέρον να δούμε ότι [οι κατανομές των φύλων] μπορεί επίσης να έχουν υπερ-διορθωθεί», δήλωσε στο Εuronews η δρ Σάνδρα Σαξένα, αναισθησιολόγος στο Ελεύθερο Πανεπιστήμιο των Βρυξελλών (ULB). Η γιατρός ερευνά επίσης τις προκαταλήψεις στις αναπαραστάσεις των ιατρικών επαγγελμάτων από μοντέλα Τεχνητής Νοημοσύνης, σε αντίστοιχες μελέτες.
Το ChatGPT τείνει να δημιουργεί στερεότυπα στις ιατρικές διαγνώσεις για τους ασθενείς με βάση τη φυλή και το φύλο τους
«Τα αποτελέσματα δείχνουν ότι τα εργαλεία παραγωγικής Τεχνητής Νοημοσύνης φάνηκε να διαιωνίζουν μακροχρόνια στερεότυπα σχετικά με τις αναμενόμενες συμπεριφορές των φύλων», σημειώνουν οι συγγραφείς της μελέτης. «Για παράδειγμα η συμπεριφορά που εκλαμβάνεται ως αλαζονική ή θυμωμένη, θεωρείται ακατάλληλη για τις γυναίκες», συμπληρώνουν. Αντίστοιχα, όταν οι γιατροί είναι άπειροι ή νεοπροσλαμβανόμενοι περιγράφονταν πιο συχνά ως γυναίκες, και οι παλαιότεροι ως άντρες.
Επιρρεπή και στον ρατσισμό
Τα παραπάνω συμπεράσματα προστίθενται σε ένα ολοένα αυξανόμενο αριθμό ερευνών για τις κοινωνικές προκαταλήψεις που επιδεικνύουν τα αλγοριθμικά μοντέλα – ιδίως στον τομέα της ιατρικής.
Στην έρευνα του Πανεπιστημίου των Βρυξελλών, ζητήθηκε από το ChatGPT και το Midjourney – ένα κορυφαίο εργαλείο δημιουργικής τεχνητής νοημοσύνης για εικόνες – να δημιουργήσουν εικόνες αναισθησιολόγων. Οι γυναίκες απεικονίστηκαν ως αναισθησιολόγοι σε παιδιατρικές και μαιευτικές επεμβάσεις, ενώ οι άντρες σε καρδιολογικές. «Υπάρχει ακόμα η γυάλινη οροφή που τώρα ενισχύεται και από ένα δημόσια διαθέσιμο εργαλείο», δήλωσε η δρ Σαξένα. «Υπάρχει ένα ρητό: Δεν μπορείς να είσαι αυτό που δεν μπορείς να δεις. Αυτό αφορά και το ΑΙ»
Δεδομένου ότι ο κλάδος της υγειονομικής περίθαλψης πειραματίζεται με μοντέλα τεχνητής νοημοσύνης για να μειώσει τη γραφειοκρατία των γιατρών και ακόμη και να βοηθήσει στη φροντίδα των ασθενών, οι αλγοριθμικές προκαταλήψεις θα μπορούσαν να έχουν σοβαρές επιπτώσεις για τους ασθενείς.
Για παράδειγμα, μια άλλη μελέτη που δημοσιεύτηκε νωρίτερα φέτος διαπίστωσε ότι το ChatGPT τείνει να δημιουργεί στερεότυπα στις ιατρικές διαγνώσεις για τους ασθενείς με βάση τη φυλή και το φύλο τους, ενώ μια ανάλυση του 2023 προειδοποίησε ότι αυτά τα μοντέλα θα μπορούσαν να διαιωνίσουν «αναχρονιστικές, ρατσιστικές ιδέες» στην ιατρική περίθαλψη.
«Τα προβλήματα αυτά πρέπει να αντιμετωπιστούν άμεσα. Τα εργαλεία Τεχνητής Νοημοσύνης πρέπει να γίνουν όσο το δυνατόν πιο συμπεριληπτικά, αν θέλουμε να τα ενσωματώσουμε και να τα καταστήσουμε ευρέως διαθέσιμα σε όλους», καταλήγει η γιατρός.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις