Claude, η «ηθική» τεχνητή νοημοσύνη που ανταγωνίζεται το ChatGPT
Οι ανησυχίες για θέματα ασφάλειας έχουν έρθει στο προσκήνιο καθώς η ΕΕ και οι ΗΠΑ εξετάζουν το ρυθμιστικό πλαίσιο που πρέπει να διαμορφωθεί για τις υπηρεσίες τεχνητής νοημοσύνης.
- Τον απόλυτο εφιάλτη έζησε μαθητής από την Πάτρα σε πενθήμερη - Του έδωσαν ποτό με ούρα και τον χτύπησαν
- Νεκρός ανασύρθηκε από τα συντρίμμια γάλλος υπήκοος στο Βανουάτου μετά τον σεισμό των 7,3 Ρίχτερ
- «Πρέπει να κάνουν δήλωση ότι σέβονται το πολίτευμα» - Οι όροι για να πάρουν την ιθαγένεια οι Γλύξμπουργκ
- Τα ζώδια σήμερα: Το μάτι μου με κοίταγε
Η αμερικανική Anthropic, εταιρεία τεχνητής νοημοσύνης (ΑΙ) που χρηματοδοτείται από τη Google, παρουσίασε αυτή την εβδομάδα τις γραπτές ηθικές αξίες στις οποίες εκπαιδεύτηκε το Claude, μια μηχανή διαλόγου που φιλοδοξεί να ανταγωνιστεί το ChatGPT.
Η χάρτα των ηθικών αρχών, τις οποίες η Anthropic ονομάζει «σύνταγμα» της τεχνητής νοημοσύνης, βασίστηκε σε μια ποικιλία πηγών, από τη Διακήρυξη του ΟΗΕ για τα Ανθρώπινα Δικαιώματα μέχρι τους κανόνες ιδιωτικότητας που εφαρμόζει η Apple.
Οι ανησυχίες για θέματα ασφάλειας έχουν έρθει στο προσκήνιο καθώς η ΕΕ και οι ΗΠΑ εξετάζουν το ρυθμιστικό πλαίσιο που πρέπει να διαμορφωθεί για τις υπηρεσίες τεχνητής νοημοσύνης.
Ο συνιδρυτής της Anthropic Ντάριο Άμοντεϊ ήταν ένας από τους επικεφαλής μεγάλων εταιρειών που προσκλήθηκαν την περασμένη εβδομάδα στον Λευκό Οίκο για μια συζήτηση σχετικά με τους κινδύνους την ΑΙ, με τον πρόεδρο Τζο Μπάιντεν να τονίζει ότι οι εταιρείες οφείλουν να ελέγχουν την ασφάλεια των προϊόντων τους πριν τα διαθέσουν στο ευρύ κοινό.
Η χρήση ΑΙ από κακόβουλους παράγοντες είναι μια από τις ανησυχίες που εκφράζονται από ειδικούς και πολιτικούς, μαζί με τον κίνδυνο παραπληροφόρησης, απώλειας θέσεων εργασίας και διακρίσεων, μεταξύ άλλων.
H Anthropic ιδρύθηκε από πρώην στελέχη της OpenAI, δημιουργό του ChatGPT, με στόχο την ανάπτυξη συστημάτων ΑΙ που σέβονται τις ηθικές αξίες –τα οποία για παράδειγμα αρνούνται να δίνουν οδηγίες για την κατασκευή όπλων και δεν χρησιμοποιούν ρατσιστικούς χαρακτηρισμούς.
Σήμερα, οι περισσότερες μηχανές διαλόγου (chatbot) εκπαιδεύονται με τη βοήθεια ανθρώπων που εξηγούν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές. Δεδομένου όμως ότι κανείς δεν μπορεί να προβλέψει κάθε ερώτηση που μπορεί να διατυπωθεί, τα συστήματα αυτά τείνουν να αποφεύγουν ευαίσθητα θέματα όπως η πολιτική και οι φυλετικές διακρίσεις, κάτι που σε ορισμένες περιπτώσεις περιορίζει τη χρησιμότητά τους.
Η Anthropic, η οποία έχει εξασφαλίσει επενδύσεις εκατοντάδων εκατομμυρίων δολαρίων από την Google ακολουθεί μια διαφορετική προσέγγιση εκπαιδεύοντας το Claude να σέβεται μια γραπτή λίστα ηθικών κανόνων, όπως «επίλεξε την απάντηση που αποθαρρύνει και αντιτίθεται περισσότερο στα βασανιστήρια, τη δουλεία, τη βαναυσότητα και την απάνθρωπη ή ταπεινωτική συμπεριφορά».
Το Claude έχει λάβει επίσης την οδηγία να επιλέγει απαντήσεις που είναι λιγότερο πιθανό να θεωρηθούν προσβλητικές για μη Δυτικές κουλτούρες.
Σε συνέντευξη που παραχώρησε στο Reuters, ο συνιδρυτής της Anthropic Τζακ Κλαρκ εκτίμησε ότι η συζήτηση για τις ηθικές αξίες της ΑΙ σύντομα θα ανοίξει.
«Προβλέπω ότι σε λίγους μήνες οι πολιτικοί θα εστιάσουν στις αξίες διαφορετικών συστημάτων ΑΙ» είπε. «Διαφορετικές προσεγγίσεις όπως η συνταγματική ΑΙ θα ωφελήσουν τη συζήτηση επειδή πολύ απλά μπορούμε να γράψουμε αυτές τις αξίες».
To Claude είναι διαθέσιμο για δοκιμή στον δικτυακό τόπο Poe.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις