Οργανώσεις συλλέγουν υπογραφές κατά της βιομετρικής παρακολούθησης στην ΕΕ
Πιέσεις στις Βρυξέλλες ενόψει νομοθετικής παρέμβασης για την τεχνητή νοημοσύνη
Οργανώσεις για την προστασία των πολιτικών και ψηφιακών δικαιωμάτων ελπίζουν να συλλέξουν τις υπογραφές ενός εκατομμυρίου Ευρωπαίων προκειμένου να ασκήσουν πίεση στις Βρυξέλλες για την απαγόρευση της βιομετρικής παρακολούθησης, ενόψει της ψήφισης νόμου για την τεχνητή νοημοσύνη αργότερα φέτος.
Εργαλεία παρακολούθησης όπως η αναγνώριση προσώπων σε εικόνες καμερών προκαλούν ανησυχίες για παραβίαση της ιδιωτικότητας και άλλων θεμελιωδών δικαιωμάτων αλλά και για κατάχρηση από καταπιεστικά καθεστώτα που δεν σέβονται τα ανθρώπινα δικαιώματα.
Το πρώτο τρίμηνο του 2021 η Ευρωπαϊκή Επιτροπή αναμένεται να παρουσιάσει σχέδιο νόμου για την τεχνητή νοημοσύνη (AI) ο οποίος θα καλύπτει τομείς υψηλού κινδύνου όπως οι υπηρεσίες υγείας, η ενέργεια, η μεταφορές και ορισμένες δημόσιες υπηρεσίες.
Συνασπισμός μη κυβερνητικών οργανώσεων θέλει τώρα να συγκεντρώσει ένα εκατομμύριο υπογραφές ώστε να συμμετάσχει άμεσα στη νομοθετική διαδικασία.
Στην προσπάθεια, η οποία βαφτίστηκε Reclaim Your Face («Ανάκτησε το πρόσωπό σου»), συμμετέχουν η Ένωση Πολιτικών Ελευθεριών για την Ευρώπη, η European Digital Rights, η Privacy International και ακόμα 26 οργανώσεις, αναφέρει το Reuters.
Στο πλευρό τους φαίνεται ότι θα σταθούν και ορισμένοι ευρωβουλευτές. «Η Ευρωπαϊκή Ένωση χρηματοδοτεί παράνομες τεχνολογίες που παραβιάζουν θεμελιώδη δικαιώματα και είναι ανήθικες» είχε δηλώσει τον Δεκέμβριο στον Guardian ο Πάτρικ Μπρέγιερ, Γερμανός ευρωβουλευτής του κόμματος των Πειρατών και μέλος της επιτροπής πολιτικών ελευθεριών του Ευρωπαϊκού Κοινοβουλίου.
Διαβαθμισμένες πληροφορίες
Ο Μπρέγιερ έχει καταθέσει αγωγή κατά της Κομισιόν στο Ευρωπαϊκό Δικαστήριο, μετά την άρνηση των Βρυξελλών να δώσουν πληροφορίες για το πρόγραμμα iBorderCtrl, του οποίου η τεχνολογία προορίζεται να χρησιμοποιηθεί για έλεγχο των ευρωπαϊκών συνόρων. Το σύστημα, το οποίο υποτίθεται ότι ανιχνεύει το ψεύδος από ανεπαίσθητες εκφράσεις του προσώπου, δοκιμάστηκε στα σύνορα Σερβίας – Ουγγαρίας.
Ο ευρωβουλευτής είχε διαβάσει άρθρο του The Intercept στο οποίο μια ρεπόρτερ ανέφερε ότι υποβλήθηκε σε εξέταση στα σύνορα. Είπε την αλήθεια, όμως το σύστημα έδειξε ότι έλεγε ψέματα.
Οι αλγόριθμοι βιομετρικής παρακολούθησης είναι ευρέως γνωστό ότι μεροληπτούν σε βάρος των γυναικών, των μαύρων και άλλων μειονοτήτων, εγείροντας ανησυχίες για τις ηθικές διαστάσεις της τεχνολογίας.
Τα τελευταία επτά χρόνια, έγραφε η βρετανική εφημερίδα, ευρωπαϊκά κονδύλια 1,7 δισ. ευρώ διατέθηκαν για την ανάπτυξη τεχνολογιών ασφάλειας που προορίζονται να χρησιμοποιηθούν από αστυνομικές δυνάμεις και υπηρεσίες ελέγχου των συνόρων.
Σε πολλές περιπτώσεις, η πρόσβαση στις λεπτομέρειες των ερευνών απαγορεύεται για λόγους ασφάλειας και προστασίας εμπορικών μυστικών –κάτι που σημαίνει ότι η κοινωνία των πολιτών δεν μπορεί να γνωρίζει αν τα χρήματα των φορολογουμένων αξιοποιούνται προς το δημόσιο όφελος ή όχι.
Το ζήτημα «αφορά τον έλεγχο που έχουμε στις ζωές μας» υποστήριξε η Ορσόλια Ράιχ της Ένωσης Πολιτικών Ελευθεριών για την Ευρώπη.
«Το βλέπουμε ήδη να συμβαίνει με τον τρόπο που η AI χρησιμοποιείται για τη λήψη αποφάσεων που μας αφορούν. Η μαζική βιομετρική παρακολούθησης θα τροφοδοτήσει αυτά τα συστήματα με περισσότερα δεδομένα για περισσότερους ανθρώπους και θα καταστήσει αυτές τις πρακτικές πιο διαδεδομένες και επιβλαβείς» προειδοποίησε.
Ακόμα και η Υπηρεσία Θεμελιωδών Δικαιωμάτων της ΕΕ, με έδρα στη Βιέννη, είχε σημάνει πέρυσι τον κώδωνα του κινδύνου για τη χρήση της τεχνητής νοημοσύνης στην λεγόμενη προληπτική αστυνόμευση, τις ιατρικές διαγνώσεις και τις στοχευμένες διαφημίσεις.
- Κιμ Γιονγκ Ουν: Προειδοποιεί για κίνδυνο πυρηνικού πολέμου
- Ουκρανία: Παρίσι και Λονδίνο υπόσχονται να μην αφήσουν τον Πούτιν να «πετύχει τους σκοπούς του»
- Στα «ΝΕΑ» της Παρασκευής: Μια αλλαγή που ανατρέπει το σκηνικό
- Η βαθμολογία στον όμιλο της Εθνικής μετά την ήττα στο Λονδίνο
- Θα μπουν οι ΗΠΑ στο στόχαστρο των εκδικητών ομολόγων;
- Euroleague: Η βαθμολογία μετά τη νίκη του Ολυμπιακού επί της Μπασκόνια