Μια Magna Carta στον κόσμο των ρομπότ
Η εποχή της τεχνητής νοημοσύνης έρχεται ταχύτερα από ό,τι πιστεύεται και οι αλλαγές που θα επιφέρει στην καθημερινή ζωή είναι ασύλληπτες. Πώς θα κατοχυρωθούν οι ατομικές ελευθερίες και τα δημοκρατικά δικαιώματα;
Ας προσπαθήσουμε να φανταστούμε την ιατρική και φαρμακευτική αγωγή και συνολικά την αντιμετώπιση ενός σοβαρά ασθενούς να αποφασίζεται με βάση έναν μαθηματικό αλγόριθμο, που θα κάνει περίπλοκες εξισώσεις ανάμεσα στις πιθανότητες ίασης και επιβίωσης με το κόστος, χωρίς την παρέμβαση γιατρού ή νοσηλευτή. Ας κάνουμε κάτι ανάλογο με το πρόγραμμα και τη μέθοδο διδασκαλίας σε ένα σχολείο, καθώς και με το περιεχόμενο των βιβλίων, στην περίπτωση που θα καθορίζονται από έναν κεντρικό υπολογιστή, εγκατεστημένο στο ψυχρό δωμάτιο κάποιου υπουργείου.
Ας αναλογιστούμε το ίδιο να συμβαίνει με την πρόσληψη ή μη ενός υπαλλήλου από μια επιχείρηση ή την απόλυση κάποιου εργαζομένου από αυτήν που θα επαφίενται στη μηχανιστική επεξεργασία των προσωπικών δεδομένων και των επιδόσεών του. Ας υποθέσουμε και το σενάριο μιας σοβαρής γεωπολιτικής διαφοράς, όπως για παράδειγμα ο καθορισμός των Αποκλειστικών Οικονομικών Ζωνών στο Αιγαίο, που θα μπορεί να επιλύεται με βάση την ετυμηγορία ενός ρομπότ «εκπαιδευμένου» στη διπλωματία.
Μπορούμε, άραγε, να τα φανταστούμε όλα αυτά; Ενδεχομένως όχι – ή, για την ακρίβεια, όχι ακόμη. Η είσοδος στην ψηφιακή εποχή, όμως, κυρίως δε η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης, ίσως μας φέρουν μπροστά σε τέτοια φαινόμενα πολύ πιο γρήγορα από ό,τι ενδεχομένως φαντάζονται οι περισσότεροι. Για να μη βρεθούμε δε προ εκπλήξεων και ανακαλύψουμε ξαφνικά πως ο κόσμος γύρω μας είναι πια ξένος και απρόσωπος, υπάρχουν ορισμένα θεμελιώδη ερωτήματα που πρέπει να τεθούν με σαφήνεια και να απαντηθούν άμεσα – και πάντως, προτού η ανάπτυξη της τεχνητής νοημοσύνης μας επιβληθεί ως άμεση και αδιαπραγμάτευτη προτεραιότητα.
Τα μεγάλα ερωτήματα. Τι μπορεί να προσφέρει στην ανθρωπότητα και ποιες απειλές αντιπροσωπεύει; Ποιος και πώς θα την ελέγχει προκειμένου να μη μετατραπεί σε έναν μελλοντικό Φρανκενστάιν; Ποιοι θα είναι υπεύθυνοι για ενδεχόμενες «αστοχίες» – για παράδειγμα (όπως αναρωτιέται η Ευρωβουλή σε σχετικό κείμενό της), σε ένα ατύχημα για το οποίο ευθύνεται ένα αυτοκινούμενο όχημα, θα διωχθεί ο ιδιοκτήτης, ο κατασκευαστής ή ο προγραμματιστής; Εν τέλει, πώς θα διασφαλιστούν οι θεμελιώδεις ατομικές ελευθερίες και τα βασικά δημοκρατικά δικαιώματα για όλους στη νέα εποχή;
Οπως πάντα, βεβαίως, οι απαντήσεις εξαρτώνται από δύο παράγοντες: Από τον τρόπο που τίθενται τα ερωτήματα και από το ποιοι είναι αυτοί που αναλαμβάνουν να τις δώσουν. Γι’ αυτό, άλλωστε, κάθε μεγάλη τομή στην εξέλιξη των ανθρώπινων κοινωνιών και σχεδόν κάθε επιστημονική ανακάλυψη έχουν δύο όψεις, στενά δεμένες μεταξύ τους, όπως επιβάλλει η διαλεκτική αρχή της ενότητας των αντιθέτων: η μία έχει τη δυνατότητα να «απογειώσει» την ποιότητα ζωής του ανθρώπου, ενώ η άλλη μπορεί να κάνει τον κόσμο μας χειρότερο για τους πολλούς, με διάφορους τρόπους.
Εισήγηση
Αυτός είναι και ο λόγος που έκανε το αρμόδιο για την τεχνολογία και την επιστήμη γραφείο του Λευκού Οίκου να συντάξει μια εισήγηση προς τον Τζο Μπάιντεν, στην οποία σημειώνει και τα εξής: «Οι πανίσχυρες τεχνολογίες θα έπρεπε να απαιτείται να σέβονται τις δημοκρατικές μας αξίες και να δεσμεύονται από το κεντρικό δόγμα ότι όλοι πρέπει να τυγχάνουν δίκαιης μεταχείρισης».
Για τον ίδιο λόγο, επαναλαμβάνει εμφατικά μια πρόταση η οποία έχει διατυπωθεί προ πολλού: τη θέσπιση μιας νέας Χάρτας Δικαιωμάτων για την ψηφιακή εποχή, κατ’ αναλογία εκείνης που «συμπλήρωσε» το Σύνταγμα των Ηνωμένων Πολιτειών – ή, αν ορισμένοι το προτιμούν, της Magna Carta στην Αγγλία του 1215. Μιας Χάρτας, σε κάθε περίπτωση, που πρέπει να επιδιωχθεί να έχει παγκόσμια ισχύ, όπως έχει (θεωρητικά τουλάχιστον) η Οικουμενική Διακήρυξη του ΟΗΕ για τα Ανθρώπινα Δικαιώματα, η οποία εγκρίθηκε το 1948.
Κάν’ το όπως η Ευρώπη. Σε αυτό το πλαίσιο, μάλιστα, η διεύθυνση των «Financial Times» δεν δίστασε, σε πρόσφατο σχετικό άρθρο της, να προτρέψει τις ΗΠΑ να ακολουθήσουν το παράδειγμα της Ευρώπης και να συνεργαστούν μαζί της. «Το Γενικό Ρυθμιστικό Πλαίσιο για την Προστασία των Δεδομένων της ΕΕ περιλαμβάνει ήδη το δικαίωμα των πολιτών να μην αποτελούν, χωρίς τη συναίνεσή τους, αντικείμενο αποφάσεων βασισμένων αποκλειστικά σε αυτοματοποιημένες διαδικασίες», σημειώνει το άρθρο. Κάνει επίσης αναφορά, ως παράδειγμα προς αποφυγή, στην πρακτική της Κίνας και το «σύστημα πόντων» που έχει καθιερώσει το καθεστώς της για την… αξιολόγηση και βελτίωση των 1,4 δισ. πολιτών της.
Πρέπει να σημειώσουμε, πάντως, ότι – τυχαία ή όχι – στην περίπτωση της τεχνητής νοημοσύνης ισχύει ό,τι και με την ανθρώπινη: η λειτουργία της εξαρτάται σε μεγάλο βαθμό, αν όχι αποκλειστικά, από τον τρόπο που έχει εκπαιδευτεί. «Το τι μαθαίνουν οι μηχανές εξαρτάται από πολλά, συμπεριλαμβανομένων και των δεδομένων με βάση τα οποία εκπαιδεύονται», σημειώνουν οι σύμβουλοι του Μπάιντεν.
Μας φέρνει, άραγε, αυτό το στοιχείο πιο κοντά – ή μήπως πιο μακριά;
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις