Τεχνητή νοημοσύνη: Τι προβλέπει η νομοθεσία που ετοιμάζει η ΕΕ
Το ευρωπαϊκό AI Act είναι το πρώτο νομοθετικό πλαίσιο στη Δύση για τη ρύθμιση της τεχνητής νοημοσύνης.
- Τον ειδοποίησαν από το νοσοκομείο ότι έχει καρκίνο έναν χρόνο μετά από επέμβαση ρουτίνας
- Ετοιμάζονται χιλιάδες απολύσεις στην Ευρώπη
- Έντονος καβγάς Γιαννούλη – Γεωργιάδη: «Πέθανε καρκινοπαθής λόγω καθυστερημένου χειρουργείου» – «Ντροπή, ο ασθενής ζει»
- Κάπως... ταλαιπωρημένο είναι το φετινό χριστουγεννιάτικο δέντρο στο Βατικανό - Δείτε φωτογραφίες
Ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (ΤΝ) εγκρίθηκε από την επιτροπή νομοθετών και οδεύει στο να γίνει ευρωπαϊκός νόμος.
Πρόκεται για μια εξέλιξη ορόσημο σε μια εποχή που οι κυβερνήσεις προσπαθούν να βάλουν το νομικό πλαίσιο σε αυτό το τεχνολογικό επίτευγμα που εξελίσσεται με ιλιγγιώδη ταχύτητα. Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (AI Act), είναι ο πρώτος νόμος για τα συστήματα Τεχνητής Νοημοσύνης στη Δύση. Η Κίνα έχει ήδη αναπτύξει σχέδια κανόνων που αποσκοπούν στη διαχείριση του τρόπου με τον οποίο οι εταιρείες αναπτύσσουν προϊόντα ΤΝ, όπως είναι το ChatGPT.
Ο νόμος υιοθετεί μια προσέγγιση που βασίζεται στον κίνδυνο για τη ρύθμιση της ΤΝ, όπου οι υποχρεώσεις για ένα σύστημα είναι ανάλογες με το επίπεδο κινδύνου που ενέχει.
Οι κανόνες καθορίζουν επίσης τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT, τα οποία αποτελούν πηγή βασικής ανησυχίας για τις ρυθμιστικές αρχές, δεδομένου του πόσο προηγμένα γίνονται και των φόβων ότι θα μπορούσαν να εκτοπίσουν ακόμη και εξειδικευμένους εργαζόμενους.
Τι λένε οι κανόνες
Ο νόμος για την ΤΝ κατηγοριοποιεί τις εφαρμογές της σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος.
Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται εξ ορισμού και δεν μπορούν να αναπτυχθούν στην Ευρωπαϊκή Ένωση.
Αφορούν:
- Συστήματα ΤΝ που χρησιμοποιούν υποσυνείδητες τεχνικές ή τεχνικές χειραγώγησης ή παραπλάνησης για τη διαστρέβλωση της συμπεριφοράς
- Συστήματα ΤΝ που εκμεταλλεύονται τρωτά σημεία ατόμων ή συγκεκριμένων ομάδων
- Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά ή ιδιότητες
- Συστήματα ΤΝ που χρησιμοποιούνται για κοινωνική βαθμολόγηση ή αξιολόγηση της αξιοπιστίας
- Συστήματα ΤΝ που χρησιμοποιούνται για εκτιμήσεις κινδύνου που προβλέπουν ποινικές ή διοικητικές παραβάσεις
- Συστήματα ΤΝ που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου μέσω μη στοχευμένης απόξεσης
- Συστήματα ΤΝ που συμπεραίνουν συναισθήματα στην επιβολή του νόμου, τη διαχείριση των συνόρων, τον χώρο εργασίας και την εκπαίδευση
Αρκετοί νομοθέτες είχαν ζητήσει να γίνουν τα μέτρα πιο ακριβή για να διασφαλιστεί ότι θα καλύπτουν το ChatGPT. Για τον σκοπό αυτό, έχουν επιβληθεί απαιτήσεις για «μοντέλα θεμελίωσης», όπως τα μεγάλα γλωσσικά μοντέλα και η γενεσιουργός ΤΝ.
Οι προγραμματιστές των θεμελιωδών μοντέλων θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πριν δημοσιοποιήσουν τα μοντέλα τους.
Θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.
Οι πάροχοι τέτοιων μοντέλων τεχνητής νοημοσύνης θα πρέπει να λαμβάνουν μέτρα για την αξιολόγηση και τον μετριασμό των κινδύνων για τα θεμελιώδη δικαιώματα, την υγεία και την ασφάλεια και το περιβάλλον, τη δημοκρατία και το κράτος δικαίου”, δήλωσε στο CNBC ο Ceyhun Pehlivan, σύμβουλος της Linklaters και συν-επικεφαλής της ομάδας πρακτικής τηλεπικοινωνιών, μέσων ενημέρωσης και τεχνολογίας και πνευματικής ιδιοκτησίας της δικηγορικής εταιρείας στη Μαδρίτη.
«Θα υπόκεινται επίσης σε απαιτήσεις διακυβέρνησης δεδομένων, όπως η εξέταση της καταλληλότητας των πηγών δεδομένων και των πιθανών προκαταλήψεων».
Είναι σημαντικό να τονιστεί ότι, ενώ ο νόμος έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει πολύ από το να γίνει νόμος.
Γιατί τώρα;
Οι ιδιωτικές εταιρείες αναπτύσσουν την τεχνολογία ΤΝ με ιλιγγιώδη ταχύτητα, δημιουργώντας συστήματα όπως η Microsoft υποστήριξε το ChatGPT της OpenAI και το Bard της Google.
Η Google ανακοίνωσε την Τετάρτη μια σειρά από νέες ενημερώσεις AI, συμπεριλαμβανομένου ενός προηγμένου γλωσσικού μοντέλου που ονομάζεται PaLM 2, το οποίο η εταιρεία υποστηρίζει ότι ξεπερνάει άλλα κορυφαία συστήματα σε ορισμένες εργασίες.
Τα καινοτόμα chatbots τεχνητής νοημοσύνης όπως το ChatGPT έχουν συναρπάσει πολλούς τεχνολόγους και ακαδημαϊκούς με την ικανότητά τους να παράγουν ανθρωποειδείς απαντήσεις σε προτροπές χρηστών που τροφοδοτούνται από μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων.
Αλλά η τεχνολογία AI υπάρχει εδώ και χρόνια και έχει ενσωματωθεί σε περισσότερες εφαρμογές και συστήματα από ό,τι νομίζετε. Καθορίζει, για παράδειγμα, ποια viral βίντεο ή φωτογραφίες φαγητού θα δείτε στο TikTok ή στο Instagram feed σας.
Στόχος των προτάσεων της ΕΕ είναι να παράσχει ορισμένους κανόνες «οδικής» συμπεριφοράς για τις εταιρείες και τους οργανισμούς που χρησιμοποιούν τεχνητή νοημοσύνη.
Αντίδραση της τεχνολογικής βιομηχανίας
Οι κανόνες προκάλεσαν ανησυχίες στον κλάδο της τεχνολογίας.
Ο Σύνδεσμος Βιομηχανίας Υπολογιστών και Επικοινωνιών δήλωσε ότι ανησυχεί για το γεγονός ότι το πεδίο εφαρμογής του νόμου για την ΤΝ έχει διευρυνθεί υπερβολικά και ότι μπορεί να συλλάβει μορφές ΤΝ που είναι ακίνδυνες.«Είναι ανησυχητικό να βλέπουμε ότι ευρείες κατηγορίες χρήσιμων εφαρμογών τεχνητής νοημοσύνης – οι οποίες ενέχουν πολύ περιορισμένους ή και καθόλου κινδύνους – θα αντιμετωπίζουν τώρα αυστηρές απαιτήσεις ή θα μπορούσαν ακόμη και να απαγορευτούν στην Ευρώπη», εξηγεί στο CNBC ο Boniface de Champris, υπεύθυνος πολιτικής στην CCIA Europe.
«Η αρχική πρόταση της Ευρωπαϊκής Επιτροπής για τον νόμο περί τεχνητής νοημοσύνης υιοθετεί μια προσέγγιση με βάση τον κίνδυνο, ρυθμίζοντας συγκεκριμένα συστήματα τεχνητής νοημοσύνης που ενέχουν σαφή κίνδυνο», πρόσθεσε.
«Οι ευρωβουλευτές έχουν τώρα εισάγει κάθε είδους τροποποιήσεις που αλλάζουν την ίδια τη φύση του νόμου για την ΤΝ, ο οποίος τώρα υποθέτει ότι πολύ ευρείες κατηγορίες ΤΝ είναι εγγενώς επικίνδυνες.
Τι λένε οι ειδικοί
Η Dessi Savova, επικεφαλής της ομάδας τεχνολογίας στην ηπειρωτική Ευρώπη της δικηγορικής εταιρείας Clifford Chance, εξήγησε ότι οι κανόνες της ΕΕ θα θέσουν ένα «παγκόσμιο πρότυπο» για τη ρύθμιση της τεχνητής νοημοσύνης. Ωστόσο, πρόσθεσε ότι άλλες χώρες, συμπεριλαμβανομένης της Κίνας, των ΗΠΑ και του Ηνωμένου Βασιλείου, αναπτύσσουν γρήγορα τις δικές τους νομικές απαντήσεις.
«Η μεγάλη εμβέλεια των προτεινόμενων κανόνων ΤΝ σημαίνει εγγενώς ότι οι παίκτες ΤΝ σε όλες τις γωνιές του κόσμου πρέπει να ενδιαφερθούν», είπε χαρακτηριστικά.
«Το σωστό ερώτημα είναι αν ο νόμος για την τεχνητή νοημοσύνη θα θέσει το μοναδικό πρότυπο για την τεχνητή νοημοσύνη. Η Κίνα, οι ΗΠΑ και το Ηνωμένο Βασίλειο, για να αναφέρουμε μερικές από αυτές, καθορίζουν τη δική τους πολιτική και ρυθμιστικές προσεγγίσεις για την τεχνητή νοημοσύνη. Αναμφισβήτητα, όλοι τους θα παρακολουθούν στενά τις διαπραγματεύσεις του AI Act για την προσαρμογή των δικών τους προσεγγίσεων. Πρόσθεσε επίσης ότι το τελευταίο σχέδιο νόμου θέτει σε νομική ισχύ πολλές από τις ηθικές αρχές της ΤΝ που έχουν προωθήσει οι οργανώσεις.
Η Sarah Chander, ανώτερη σύμβουλος πολιτικής στην European Digital Rights, ομάδα εκστρατείας για τα ψηφιακά δικαιώματα με έδρα τις Βρυξέλλες, τόνισε ότι οι νόμοι θα απαιτούν από τα ιδρυτικά μοντέλα όπως το ChatGPT να «υποβάλλονται σε δοκιμές, απαιτήσεις τεκμηρίωσης και διαφάνειας».
«Ενώ αυτές οι απαιτήσεις διαφάνειας δεν θα εξαλείψουν τις υποδομές και τις οικονομικές ανησυχίες με την ανάπτυξη αυτών των τεράστιων συστημάτων τεχνητής νοημοσύνης, απαιτούν από τις εταιρείες τεχνολογίας να αποκαλύψουν τα ποσά υπολογιστικής ισχύος που απαιτούνται για την ανάπτυξή τους»συνέχισε.
Πηγή: OT.gr
Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις