Πέμπτη 19 Δεκεμβρίου 2024
weather-icon 21o
Κάνουν… σκονάκι μέσω τεχνητής νοημοσύνης!

Κάνουν… σκονάκι μέσω τεχνητής νοημοσύνης!

Μια εφαρμογή - ρομπότ που μπορεί να απαντά σε ερωτήσεις γνώσεων και να γράφει αρκετά καλά κείμενα έχει γίνει όπλο στα χέρια των μαθητών και των φοιτητών που θέλουν να αντιγράψουν - γι' αυτό σχολεία και πανεπιστήμια σε ΗΠΑ και Αυστραλία προσπαθούν να εμποδίσουν τη χρήση της

Μπορεί να γράψει ένα αρκετά καλό κείμενο, να απαντήσει σε πολλές ερωτήσεις γνώσεων και να κάνει φαινομενικά έξυπνες παρατηρήσεις σε μια σειρά ζητημάτων που απασχολούν όλους μας καθημερινά.

Αν και έχει αρκετά στοιχεία, ικανά να το καταστήσουν έναν καλό φίλο του χρήστη, στην πραγματικότητα λίγους μόλις μήνες μετά την επίσημη έναρξη της λειτουργίας του έχει καταφέρει να ξεσηκώσει πολλές φωνές εναντίον του.

Κι αυτό γιατί αν και το ChatGPT είναι ένα νέο εξαιρετικό εργαλείο τεχνητής νοημοσύνης, όσο η χρήση του διευρύνεται τόσο οι εφαρμογές του δύναται να γίνουν αντιφατικές.

Η απαγόρευση

Το πιο χαρακτηριστικό παράδειγμα είναι η απόφαση της Διεύθυνσης Εκπαίδευσης της Νέας Υόρκης να απαγορεύσει τη χρήση του ChatGPT σε όλα τα δημόσια σχολεία της πόλης τόσο για τους μαθητές όσο και τους δασκάλους, εξαιτίας των ανησυχιών που προέκυψαν για τις «αρνητικές επιπτώσεις στη μάθηση των μαθητών» αφού «δεν δημιουργεί δεξιότητες κριτικής σκέψης και επίλυσης προβλημάτων, οι οποίες είναι απαραίτητες για την ακαδημαϊκή και διά βίου επιτυχία».

Και η αλήθεια είναι πως το ChatGPT σχεδιάστηκε από τo εργαστήριο OpenAI με έδρα το Σαν Φρανσίσκο ώστε να παράγει κείμενα που μοιάζουν ανθρώπινα αφού τροφοδοτούνται από χιλιάδες ηλεκτρονικά δεδομένα, από τη Wikipedia και τα blogs έως βιβλία και ακαδημαϊκά βιβλία. Αυτές οι λειτουργίες θα φαίνονταν χρήσιμες σε τομείς όπως η εξυπηρέτηση πελατών, η σύνταξη κειμένων για σάιτ, e-mail, ακόμα και δημοσιεύσεις στα social media.

Ωστόσο, ως chatbot δεν τα πάει καλά με απλές ερωτήσεις λογικής, είναι «σκράπας» στα μαθηματικά, οι γλώσσες και το πλαίσιο της αναφοράς συγκεκριμένων φράσεων του βάζουν εμπόδια και μπορεί να υπερασπιστεί εντελώς λανθασμένα στοιχεία.

Κρύβει παγίδες

Δεν είναι τυχαίο πως τον περασμένο Δεκέμβριο με ανάρτησή του στο Twitter ο πρόεδρος του ΔΣ της OpenAI Σαμ Αλτμαν προειδοποίησε τους χρήστες να μη βασίζονται στο ChatGPT για σημαντικές λειτουργίες αφού είναι ακόμα στα σπάργανα της δημιουργίας του κι άρα κρύβει παγίδες.

«Το ChatGPT είναι απίστευτα περιορισμένο, αλλά αρκετά καλό σε ορισμένα πράγματα για να δημιουργήσει μια παραπλανητική εντύπωση μεγαλείου. Είναι λάθος να βασίζεσαι σε αυτό για οτιδήποτε σημαντικό αυτή τη στιγμή. Είναι μια προεπισκόπηση της προόδου. Εχουμε πολλή δουλειά να κάνουμε για την ευρωστία και την ειλικρίνεια», έγραψε ο Αλτμαν, προσπαθώντας να προλάβει όλο εκείνο το ορμητικό κύμα εφαρμογών που έστρεψαν το ενδιαφέρον τους προς το chatbot κινδυνεύοντας να πνιγούν και οι ίδιες στην προσπάθειά τους να δαμάσουν τη νέα αυτή τεχνολογία.

Ανάμεσά τους και η εφαρμογή Koko που χρησιμοποίησε το ChatGPT ώστε να απαντήσει σε μηνύματα ανθρώπων που επιζητούσαν βοήθεια για ψυχολογικά προβλήματα, προκαλώντας θύελλα αντιδράσεων.

Αρνητικό αντίκτυπο είχε και η δοκιμή που έκανε τον περασμένο Δεκέμβριο η ιστοσελίδα Stack Overflow να χρησιμοποιήσει το συγκεκριμένο chatbot για να απαντήσει σε ερωτήσεις προγραμματισμού υπολογιστών, καταλήγοντας τελικά να αποκηρύξει τη λειτουργία του για τέτοιους σκοπούς.

Αντιγράφουν εργασίες!

Προχωρώντας ένα βήμα παραπέρα, στην Αυστραλία τα πανεπιστήμια πρόσθεσαν νέους κανόνες που αφορούν την απαγόρευση της χρήσης τεχνητής νοημοσύνης από τους φοιτητές τους για τη συγγραφή εργασιών αφού αποτελεί εξαπάτηση. Μάλιστα, κάποιοι εξ αυτών πιάστηκαν να αντιγράφουν στις εξετάσεις, χρησιμοποιώντας το συγκεκριμένο λογισμικό.

Αυτή η εξέλιξη συνέβαλε στην επιτάχυνση της επιστροφής στο παραδοσιακό μοτίβο των εξετάσεων, με χρήση στιλό και χαρτιού, μέσα στο 2023, τουλάχιστον στα οκτώ κορυφαία ακαδημαϊκά ιδρύματα, επιχειρώντας να σταματήσουν την επέλαση της τεχνητής νοημοσύνης. Κάποια εξ αυτών θα εισαγάγουν και προφορικές παρουσιάσεις μαζί με επιτόπιες εργασίες και εργαστηριακές δραστηριότητες και χρονομέτρηση της όλης διαδικασίας για να περιορίσουν τα φαινόμενα αντιγραφής ή λογοκλοπής μέσω ChatGPT.

Σύμμαχό τους σε αυτήν την προσπάθεια φαίνεται πως βρήκαν τον Εντουαρντ Τίαν, φοιτητή στο Πανεπιστήμιο Πρίνστον, ο οποίος πέρασε όλες τις χριστουγεννιάτικες διακοπές του σχεδιάζοντας την εφαρμογή GPTZero, η οποία ανιχνεύει το αποτύπωμα που αφήνει η χρήση της τεχνητής νοημοσύνης στα κείμενα και θα ήταν καλός σύμβουλος όλων των ακαδημαϊκών.

Με τη μεγάλη δύναμη έρχεται και μεγάλη ευθύνη

Σ’ έναν κόσμο που διακατέχεται από ακόρεστη ανάγκη για δεδομένα και νέες πληροφορίες, το ChatGPT ίσως να είναι μια λύση διαρκούς παραγωγής νέου υλικού.

Ακόμα κι αν είναι «μια αποκρουστική κοροϊδία τού τι σημαίνει να είσαι άνθρωπος», όπως χαρακτήρισε πρόσφατα ο Νικ Κέιβ τη συγκεκριμένη τεχνολογία που επιστρατεύτηκε από τους θαυμαστές του για να δημιουργήσει νέα τραγούδια που μιμούνταν το ύφος του, μπορεί να εξελιχθεί σ’ ένα πιο βαθύ πρόβλημα αν συνδεθεί, για παράδειγμα, με ψεύτικους λογαριασμούς στα social media που διαδίδουν fake news.

Με τη μεγάλη δύναμη έρχεται και μεγάλη ευθύνη και το ChatGPT πρέπει να αναλάβει μπόλικη από αυτήν αφού είναι μία από τις τεχνολογίες που πραγματικά έφεραν τα πάνω κάτω στον κόσμο.

ΕΝΤΥΠΗ ΕΚΔΟΣΗ «ΤΑ ΝΕΑ»

Must in

Η Τσέλσι των «16», οι 15 με… εισιτήριο και ο Παναθηναϊκός στο τελευταίο βήμα

Από τις 36 ομάδες της διοργάνωσης, μόνο η Τσέλσι διατηρεί το απόλυτο της συγκομιδής με πέντε νίκες σε ισάριθμα παιχνίδια, ενώ άλλες δύο ομάδες -Γκιμαράες και Σάμροκ Ρόβερς- παραμένουν αήττητες

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΦΑΕ ΠΕΙΡΑΙΑ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Πέμπτη 19 Δεκεμβρίου 2024
Απόρρητο