Claude, η «ηθική» τεχνητή νοημοσύνη που ανταγωνίζεται το ChatGPT
Οι ανησυχίες για θέματα ασφάλειας έχουν έρθει στο προσκήνιο καθώς η ΕΕ και οι ΗΠΑ εξετάζουν το ρυθμιστικό πλαίσιο που πρέπει να διαμορφωθεί για τις υπηρεσίες τεχνητής νοημοσύνης.
- Πατέρας βίαζε και εξέδιδε την ανήλικη κόρη του σε άγνωστους άνδρες - Σοκάρει υπόθεση στη Γαλλία
- Πολάκης: Τη Δευτέρα θα είμαι μπροστάρης σε μια προσπάθεια ανασυγκρότησης του ΣΥΡΙΖΑ
- Φάμελλος: Τυχοδιώκτης ο Κασσελάκης – Μόνο ο ΣΥΡΙΖΑ μπορεί να σταματήσει το πάρτι δισεκατομμυρίων του Μητσοτάκη
- Το «εστιατόριο των λανθασμένων παραγγελιών» στην Ιαπωνία έχει να μας διδάξει πολλά
Η αμερικανική Anthropic, εταιρεία τεχνητής νοημοσύνης (ΑΙ) που χρηματοδοτείται από τη Google, παρουσίασε αυτή την εβδομάδα τις γραπτές ηθικές αξίες στις οποίες εκπαιδεύτηκε το Claude, μια μηχανή διαλόγου που φιλοδοξεί να ανταγωνιστεί το ChatGPT.
Η χάρτα των ηθικών αρχών, τις οποίες η Anthropic ονομάζει «σύνταγμα» της τεχνητής νοημοσύνης, βασίστηκε σε μια ποικιλία πηγών, από τη Διακήρυξη του ΟΗΕ για τα Ανθρώπινα Δικαιώματα μέχρι τους κανόνες ιδιωτικότητας που εφαρμόζει η Apple.
Οι ανησυχίες για θέματα ασφάλειας έχουν έρθει στο προσκήνιο καθώς η ΕΕ και οι ΗΠΑ εξετάζουν το ρυθμιστικό πλαίσιο που πρέπει να διαμορφωθεί για τις υπηρεσίες τεχνητής νοημοσύνης.
Ο συνιδρυτής της Anthropic Ντάριο Άμοντεϊ ήταν ένας από τους επικεφαλής μεγάλων εταιρειών που προσκλήθηκαν την περασμένη εβδομάδα στον Λευκό Οίκο για μια συζήτηση σχετικά με τους κινδύνους την ΑΙ, με τον πρόεδρο Τζο Μπάιντεν να τονίζει ότι οι εταιρείες οφείλουν να ελέγχουν την ασφάλεια των προϊόντων τους πριν τα διαθέσουν στο ευρύ κοινό.
Η χρήση ΑΙ από κακόβουλους παράγοντες είναι μια από τις ανησυχίες που εκφράζονται από ειδικούς και πολιτικούς, μαζί με τον κίνδυνο παραπληροφόρησης, απώλειας θέσεων εργασίας και διακρίσεων, μεταξύ άλλων.
H Anthropic ιδρύθηκε από πρώην στελέχη της OpenAI, δημιουργό του ChatGPT, με στόχο την ανάπτυξη συστημάτων ΑΙ που σέβονται τις ηθικές αξίες –τα οποία για παράδειγμα αρνούνται να δίνουν οδηγίες για την κατασκευή όπλων και δεν χρησιμοποιούν ρατσιστικούς χαρακτηρισμούς.
Σήμερα, οι περισσότερες μηχανές διαλόγου (chatbot) εκπαιδεύονται με τη βοήθεια ανθρώπων που εξηγούν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές. Δεδομένου όμως ότι κανείς δεν μπορεί να προβλέψει κάθε ερώτηση που μπορεί να διατυπωθεί, τα συστήματα αυτά τείνουν να αποφεύγουν ευαίσθητα θέματα όπως η πολιτική και οι φυλετικές διακρίσεις, κάτι που σε ορισμένες περιπτώσεις περιορίζει τη χρησιμότητά τους.
Η Anthropic, η οποία έχει εξασφαλίσει επενδύσεις εκατοντάδων εκατομμυρίων δολαρίων από την Google ακολουθεί μια διαφορετική προσέγγιση εκπαιδεύοντας το Claude να σέβεται μια γραπτή λίστα ηθικών κανόνων, όπως «επίλεξε την απάντηση που αποθαρρύνει και αντιτίθεται περισσότερο στα βασανιστήρια, τη δουλεία, τη βαναυσότητα και την απάνθρωπη ή ταπεινωτική συμπεριφορά».
Το Claude έχει λάβει επίσης την οδηγία να επιλέγει απαντήσεις που είναι λιγότερο πιθανό να θεωρηθούν προσβλητικές για μη Δυτικές κουλτούρες.
Σε συνέντευξη που παραχώρησε στο Reuters, ο συνιδρυτής της Anthropic Τζακ Κλαρκ εκτίμησε ότι η συζήτηση για τις ηθικές αξίες της ΑΙ σύντομα θα ανοίξει.
«Προβλέπω ότι σε λίγους μήνες οι πολιτικοί θα εστιάσουν στις αξίες διαφορετικών συστημάτων ΑΙ» είπε. «Διαφορετικές προσεγγίσεις όπως η συνταγματική ΑΙ θα ωφελήσουν τη συζήτηση επειδή πολύ απλά μπορούμε να γράψουμε αυτές τις αξίες».
To Claude είναι διαθέσιμο για δοκιμή στον δικτυακό τόπο Poe.
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις