Το ChatGPT σε ρόλο… γιατρού – Διέγνωσε σπάνια πάθηση σε δευτερόλεπτα και πέρασε με άριστα τις εξετάσεις
Η τεχνητή νοημοσύνη στην υπηρεσία της… ιατρικής – Το ChatGTP πέρασε με άριστα τις εξετάσεις στις ΗΠΑ.
- Ο καλλιτέχνης που απείλησε ότι θα κατέστρεφε πολύτιμα έργα τέχνης αν ο Τζούλιαν Ασάνζ πέθαινε στη φυλακή
- Αλλαγές εξετάζει η Κομισιόν για την οδήγηση μετά τα 70 έτη - Τι θα αναφέρεται στην ευρωπαϊκή οδηγία
- Τι βλέπει η ΕΛ.ΑΣ. για τη γιάφκα στο Παγκράτι – Τα εκρηκτικά ήταν έτοιμα προς χρήση
- Την άρση ασυλίας Καλλιάνου εισηγείται η Επιτροπή Δεοντολογίας της Βουλής
Το ChatGTP όσο ενθουσιασμό προκάλεσε άμα τη εμφανίσει του, τόσες ήταν και οι αντιδράσεις που προκαλεί εν μέσω φόβων για παραβίαση προσωπικών δεδομένων και επικίνδυνη και κακόβουλη χρήση του λογισμικού τεχνητής νοημοσύνης.
Τελευταία κατάκτηση του ChatGTP, που θεωρείται βέβαιο ότι θα προκαλέσει πλήθος σχολίων και ερωτημάτων, είναι η… ιατρική. Ειδικότερα, το σύστημα τεχνητής νοημοσύνης φαίνεται ότι κατάφερε να διαγνώσει μια σπάνια πάθηση σε δευτερόλεπτα.
Ο Δρ Isaac Kohane, μηχανικός ηλεκτρονικών υπολογιστών στο Χάρβαρντ και γιατρός, συνεργάστηκε με δύο συναδέλφους του για το «test drive» του GPT-4 σε ιατρικό περιβάλλον.
«Με έκπληξη διαπίστωσα ότι τα πήγε καλύτερα από πολλούς γιατρούς» γράφει στο βιβλίο «Η επανάσταση της Τεχνητής Νοημοσύνης στην Ιατρική» ο Δρ Kohane, το οποίο συνυπογράφει με τον δημοσιογράφο Caret Goldberg και τον αντιπρόεδρο έρευνας στη Microsoft, Peter Lee.
Στο βιβλίο, ο Kohane λέει ότι το GPT-4, το οποίο κυκλοφόρησε τον Μάρτιο του 2023, απάντησε σωστά σε πάνω από το 90% των ερωτήσεων των εξετάσεων για την άδεια άσκησης της ιατρικής στις ΗΠΑ, κάτι που το κάνει καλύτερο υποψήφιο γιατρό από τα προηγούμενα μοντέλα αλλά και από κάποιους ήδη πιστοποιημένους γιατρούς.
Εκτός από τις σωστές απαντήσεις στο τεστ ιατρικών γνώσεων όμως, το ChatGTP, όπως αναφέρει το insider, μετέφρασε πληροφορίες για το εξιτήριο ενός ασθενούς που μιλάει πορτογαλικά και μπορεί επίσης να μετατρέψει την περίπλοκη τεχνική ορολογία σε κάτι που θα μπορούσαν να διαβάσουν εύκολα μαθητές της 6ης δημοτικού.
Σύμφωνα με τους συγγραφείς του βιβλίου, το σύστημα τεχνητής νοημοσύνης, μπορεί ακόμα να δίνει συμβουλές στους γιατρούς για το πώς να συμπεριφέρονται στους ασθενείς, προτρέποντας να χρησιμοποιούν λέξεις συμπόνιας.
Αλλά αν ρωτήσετε το GPT-4 πώς τα κάνει όλα αυτά, θα σας πει ότι η ευφυΐα του εξακολουθεί να «περιορίζεται σε μοτίβα και στα δεδομένα και δεν περιλαμβάνει αληθινή κατανόηση ή πρόθεση». Ακόμη και με τέτοιους περιορισμούς, όπως λέει ο Kohane στο βιβλίο, το GPT-4 μπορεί να μιμηθεί τον τρόπο με τον οποίο οι γιατροί διαγιγνώσκουν καταστάσεις με εκπληκτική – έστω και ατελή – επιτυχία.
Πώς η GPT-4 μπορεί να κάνει διάγνωση σαν γιατρός
Στο βιβλίο ο Kohane κάνει ένα κλινικό πείραμα σκέψης με το GPT-4, βασισμένο σε μια πραγματική περίπτωση ασθενούς. Πρόκειται για ένα νεογέννητο, το οποίο είχε κουράρει αρκετά χρόνια νωρίτερα. Δίνοντας στο ρομπότ μερικές βασικές λεπτομέρειες για το μωρό που είχε συγκεντρώσει από μια εξέταση, καθώς και κάποιες πληροφορίες από ένα υπερηχογράφημα και τα επίπεδα ορμονών, το ChatGTP ήταν σε θέση να διαγνώσει σωστά μια σπάνια πάθηση που εμφανίζεται 1 στις 100.000 και ονομάζεται συγγενής υπερπλασία των επινεφριδίων. «Έκανε τη διάγνωση όπως ακριβώς θα έκανα εγώ, με όλα τα χρόνια μελέτης και εμπειρίας μου» γράφει ενθουσιασμένος και τρομοκρατημένος ταυτόχρονα ο Kohane.
«Τρόμαξα όταν συνειδητοποίησα τι εκατομμύρια οικογένειες θα είχαν σύντομα πρόσβαση σε αυτήν την εντυπωσιακή ιατρική εμπειρία. Γιατί δεν μπορώ να σκεφτώ πώς θα μπορούσαμε να εγγυηθούμε ή να πιστοποιήσουμε ότι οι συμβουλές του GPT-4 θα ήταν ασφαλείς ή αποτελεσματικές» εξηγεί.
Το ChatGPT δεν έχει πάντα δίκιο και δεν έχει ηθική πυξίδα
Το GPT-4 δεν είναι πάντα αξιόπιστο και το βιβλίο είναι γεμάτο με παραδείγματα των λαθών του, που κυμαίνονται από απλά γραφειοκρατικά λάθη μέχρι μαθηματικά λάθη -όπως η λάθος συμπλήρωση ενός Sudoku.
Όποτε, γίνεται κατανοητό ότι ένας λάθος αριθμός ή ένα λάθος υπολογισμένο βάρος θα μπορούσε να οδηγήσει σε σοβαρά λάθη στη συνταγογράφηση ή στη διάγνωση.
Όπως και τα προηγούμενα GPT, το GPT-4 μπορεί επίσης να αρνηθεί να επινοήσει απαντήσεις σε ερωτήματα που δε γνωρίζει ή ακόμα και να αρνηθεί να απαντήσει.
Όταν ρωτήθηκε για το θέμα αυτό από τους συγγραφείς του βιβλίου, το GPT-4 είπε «Δεν έχω πρόθεση να εξαπατήσω ή να παραπλανήσω κανέναν, αλλά μερικές φορές κάνω λάθη ή υποθέσεις που βασίζονται σε ελλιπή ή ανακριβή δεδομένα. Επίσης, δεν έχω την κρίση ή την ηθική ευθύνη ενός ανθρώπου γιατρού ή νοσηλευτή».
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις