Οι κορυφαίοι εμπειρογνώμονες της ΕΕ προειδοποιούν: Η Ευρώπη χρειάζεται να υιοθετήσει άμεσα κανόνες για να διασφαλίσει ότι η τεχνητή νοημοσύνη δεν θα χρησιμοποιηθεί για τη δημιουργία ενός κράτους επιτήρησης, όπως αυτό της Κίνας. Ήδη έχουν καταρτίσει μια λίστα με 33 συστάσεις τις οποίες θα παρουσιάσουν στους ηγέτες της ΕΕ, σημειώνοντας την αντίθεσή τους στη χρήση της τεχνητής νοημοσύνης για τον έλεγχο και την παρακολούθηση των πολιτών.

Ads

Μέσα σε 48 σελίδες, οι εμπειρογνώμονες παροτρύνουν τους υπεύθυνους χάραξης πολιτικής να ορίσουν «κόκκινες γραμμές» για εφαρμογές τεχνητής νοημοσύνης υψηλού κινδύνου – όπως τα συστήματα μαζικής παρακολούθησης ατόμων και οι εφαρμογές κατάταξης τους ανάλογα με τη συμπεριφορά τους – μια τεχνολογία εξαιρετικά αμφιλεγόμενη. «Να απαγορευτούν τα συστήματα μαζικής παρακολούθησης», απαιτούν οι ειδικοί, προσθέτοντας ότι για τη χρήση τους θα πρέπει να οριστούν σαφείς κανόνες και να συντρέχουν λόγοι εθνικής ασφάλειας ή δημοσίου συμφέροντος. Από την άλλη, οι ειδικοί της ΕΕ συμβουλεύουν επίσης να μην επιβληθούν κανόνες ενιαίου μεγέθους για εφαρμογές τεχνητής νοημοσύνης χαμηλού κινδύνου, πολλές από τις οποίες βρίσκονται ακόμη σε πρώιμο στάδιο ανάπτυξης.

Όσον αφορά τους ευρύτερους κανόνες για την τεχνητή νοημοσύνη, η ΕΕ πρέπει να σκεφτεί δύο φορές τη σύνταξη νέας νομοθεσίας, γράφουν οι εμπειρογνώμονες και να επανεξετάσει την υπάρχουσα νομοθεσία ώστε να είναι κατάλληλη για τις ανάγκες της νέας εποχής. «Πρέπει να αποφευχθούν οι περιττές κανονιστικές ρυθμίσεις», γράφει η ομάδα. «Δεν είναι όλοι οι κίνδυνοι ίσοι», προσθέτει και επιμένει πως οι νομοθέτες πρέπει να επικεντρωθούν στη ρύθμιση εκείνων των περιοχών που εγείρουν τον μεγαλύτερο κίνδυνο.

Οι συστάσεις σηματοδοτούν την πρώτη κρούση προς την ΕΕ για τον καθορισμό των συνθηκών υπό τις οποίες θα πρέπει να αναπτυχθεί τεχνητή νοημοσύνη στην τεράστια εσωτερική αγορά της. Μέχρι σήμερα η συζήτηση γίνεται γύρω από το πως η Ευρώπη θα μπορούσε να προλάβει την παγκόσμια πρωταθλήτρια ΗΠΑ και την Κίνα σε μια συνεχιζόμενη κούρσα για την υπεροχή στην τεχνητή νοημοσύνη. Αν και οι 33 συστάσεις των εμπειρογνωμόνων δεν είναι δεσμευτικές, είναι πιθανό να επηρεάσουν τις πολιτικές αποφάσεις που θα λάβει η επόμενη Ευρωπαϊκή Επιτροπή, η οποία αναμένεται να αναλάβει καθήκοντα το Νοέμβριο και να ασχοληθεί με τα ζητήματα τεχνητής νοημοσύνης άμεσα.

Ads

Συσκευές παρακολούθησης

Η τεχνολογία τεχνητής νοημοσύνης, επιτρέποντας στις μηχανές να εκτελούν τα καθήκοντα που απαιτούσαν προηγουμένως ανθρώπινη σκέψη, πρόκειται να φέρει επανάσταση στον τρόπο με τον οποίο ζουν κι εργάζονται οι άνθρωποι και να προσφέρει τεράστιες ευκαιρίες για την καλύτερη θεραπεία των ασθενών με καρκίνο, μέχρι να καταστήσει τις παγκόσμιες αλυσίδες εφοδιασμού πιο ενεργειακά αποδοτικές. Αλλά φέρνει επίσης και σημαντικούς κινδύνους. Οι αναδυόμενες τεχνολογίες μπορούν, για παράδειγμα, να καταχραστούν από αυταρχικά καθεστώτα για να δημιουργήσουν έναν πανταχού παρών μηχανισμό επιτήρησης.

Πιο συγκεκριμένα, η Κίνα χρησιμοποιεί ήδη τεχνολογίες τεχνητής νοημοσύνης αιχμής για να δημιουργήσει ένα σύστημα επιτήρησης υψηλής τεχνολογίας και να καταστείλει τους πολιτικά αντιφρονούντες. Ήδη κι άλλες χώρες του κόσμου ακολουθούν το παράδειγμά της, συμπεριλαμβανομένων ευρωπαϊκών χωρών, όπως η Σερβία, όπου αγόρασε ήδη κινεζικό λογισμικό αναγνώρισης προσώπων από τον κολοσσό του είδους, από την Huawei.

Ακόμη και εντός της Ευρωπαϊκής Ένωσης, όπου οι πολίτες προστατεύονται από αυστηρούς νόμους περί ιδιωτικότητας, οι κυβερνήσεις από το Λονδίνο έως το Βερολίνο έχουν αναφερθεί στην τεχνολογία αναγνώρισης προσώπου.

Κατευθυντήριες αρχές εναντίον σκληρών κανόνων

Οι ειδικοί προειδοποιούν ότι ο κίνδυνος που δημιουργείται από την τεχνητή νοημοσύνη ξεπερνά το ενδεχόμενο κατασκοπείας των πολιτών από τις κυβερνήσεις τους. Τα περισσότερα από τα σημερινά συστήματα τεχνητής νοημοσύνης, είναι πολύ πιο ισχυρά, καθώς είναι ικανά να κάνουν συσχετισμούς σε τεράστιες μάζες δεδομένων και είναι επιρρεπή σε διακρίσεις κατά των μειονοτήτων. Αυτό συμβαίνει γιατί έχουν αναπτυχθεί ήδη εργαλεία που διακρίνουν τις γυναίκες, ή τους Εβραίους ή ακόμα και τους γκέι.

«Δεν θέλουμε να σκοτώσουμε την καινοτομία με κανονισμούς», δήλωσε η Επίτροπος Δικαιοσύνης Vĕra Jourová. αλλά σαφώς πρέπει να θεσπιστούν κανόνες και να αποφασιστεί ποιος θα ορίζει τους κανόνες αυτούς. Πάντως οι εν λόγω εμπειρογνώμονες στην έκθεσή τους σημειώνουν ότι οι ρυθμίσεις που πρέπει να υιοθετηθούν θα πρέπει να έχουν τη μορφή ευρείων κατευθυντήριων αρχών και να μην είναι συγκεκριμένοι κανόνες που θα καθορίζουν λεπτομερώς τι μπορούν και δεν μπορούν να κάνουν οι επιχειρήσεις και οι ερευνητές.

Ο παράγοντας της ηθικής και ο ανταγωνισμός

Το νέο αυτό έγγραφο ακολουθεί ένα για την ηθική ανάπτυξη και χρήση της τεχνητής νοημοσύνης που κυκλοφόρησε τον Απρίλιο, γραμμένο από τους ίδιους εμπειρογνώμονες. Σε αυτό το προηγούμενο έγγραφο, η ομάδα καθόρισε έναν ορισμό για την τεχνολογία τεχνητής νοημοσύνης που σέβεται τις βασικές ανθρώπινες αξίες και είναι κατασκευασμένη με τέτοιο τρόπο ώστε να μην προκαλεί σκόπιμη ή ακούσια βλάβη. Μια τέτοια «αξιόπιστη τεχνητή νοημοσύνη» θα είναι η ασημένια σφαίρα στο σχέδιο της Ευρώπης για να προλάβει τις ΗΠΑ ή την Κίνα, πιστεύει η ΕΕ. Η ανάπτυξη τεχνολογίας που τηρεί υψηλά ηθικά πρότυπα θα μετατραπεί σε ανταγωνιστικό πλεονέκτημα για τους ευρωπαίους κατασκευαστές.

Οι 52 κορυφαίοι ειδικοί της τεχνητής νοημοσύνης της Ευρώπης λαμβάνουν επίσης σαφή θέση ενάντια σε μια αμφισβητούμενη πρόταση, που λέει ότι τα ρομπότ πρέπει να θεωρούνται από τον νόμο «πρόσωπα» και να είναι υπεύθυνα για τις πράξεις τους. «Προτρέπουμε τους υπεύθυνους χάραξης πολιτικής να να δώσουν νομική υπόσταση στα συστήματα της τεχνητής νοημοσύνης», δηλώνουν ρητά «Πιστεύουμε ότι αυτό είναι θεμελιωδώς ασυμβίβαστο με την αρχή του ανθρώπινου παράγοντα, της λογοδοσίας και της ευθύνης και ότι αποτελεί σημαντικό ηθικό κίνδυνο», διαμηνύουν.