Τα συστήματα τεχνητής νοημοσύνης που είναι ικανά ενσυναίσθησης ή αυτογνωσίας κινδυνεύουν να υποστούν ζημιά αν η τεχνολογία αναπτυχθεί ανεύθυνα, σύμφωνα με ανοιχτή επιστολή που υπογράφουν επαγγελματίες και στοχαστές της τεχνητής νοημοσύνης, μεταξύ των οποίων και ο γνωστός Βρετανός ηθοποιός Σερ Στίβεν Φράι.

Ads

Περισσότεροι από 100 εμπειρογνώμονες πρότειναν πέντε αρχές για τη διεξαγωγή υπεύθυνης έρευνας σχετικά με τη συνείδηση της τεχνητής νοημοσύνης, καθώς η ταχεία πρόοδος εγείρει ανησυχίες ότι τα συστήματα αυτά θα μπορούσαν να θεωρηθούν ευαίσθητα.

Οι αρχές περιλαμβάνουν την προτεραιότητα της έρευνας για την κατανόηση και την αξιολόγηση της συνείδησης στις τεχνητές νοημοσύνες, προκειμένου να αποφευχθεί η «κακομεταχείριση και ο πόνος».

Οι άλλες αρχές είναι: ο καθορισμός περιορισμών για την ανάπτυξη συνειδητών συστημάτων τεχνητής νοημοσύνης, η σταδιακή προσέγγιση για την ανάπτυξη τέτοιων συστημάτων, η κοινοποίηση των ευρημάτων στο κοινό και η αποφυγή παραπλανητικών ή υπερβολικά αισιόδοξων δηλώσεων σχετικά με τη δημιουργία συνειδητών τεχνητών νοημοσυνών.

Ads

Οι υπογράφοντες την επιστολή περιλαμβάνουν ακαδημαϊκούς όπως ο Σερ Άντονυ Φίνκελστάιν του Πανεπιστημίου του Λονδίνου και επαγγελματίες τεχνητής νοημοσύνης σε εταιρείες όπως η Amazon και ο διαφημιστικός όμιλος WPP.

Η επιστολή δημοσιεύτηκε μαζί με ένα νέο ερευνητικό έγγραφο που περιγράφει τις αρχές. Το έγγραφο υποστηρίζει ότι στο εγγύς μέλλον θα μπορούσαν να κατασκευαστούν συνειδητά συστήματα τεχνητής νοημοσύνης – ή τουλάχιστον αυτά που δίνουν την εντύπωση ότι έχουν συνείδηση.

«Μπορεί να δημιουργηθεί μεγάλος αριθμός συνειδητών συστημάτων που θα μπορούσαν να υποφέρουν», λένε οι ερευνητές, προσθέτοντας ότι αν ισχυρά συστήματα τεχνητής νοημοσύνης ήταν σε θέση να αναπαράγονται μόνα τους, αυτό θα μπορούσε να οδηγήσει στη δημιουργία «μεγάλου αριθμού νέων όντων που αξίζουν ηθική εξέταση».

Το έγγραφο, που συντάχθηκε από τον Πάτρικ Μπάτλιν του Πανεπιστημίου της Οξφόρδης και τον Θεόδωρο Λάππα του Οικονομικού Πανεπιστημίου Αθηνών, προσθέτει ότι ακόμη και οι εταιρείες που δεν σκοπεύουν να δημιουργήσουν συνειδητά συστήματα θα χρειαστούν κατευθυντήριες γραμμές σε περίπτωση που «κατά λάθος δημιουργήσουν συνειδητές οντότητες».

Αναγνωρίζει ότι υπάρχει εκτεταμένη αβεβαιότητα και διαφωνία σχετικά με τον ορισμό της συνείδησης στα συστήματα τεχνητής νοημοσύνης και κατά πόσον είναι καν δυνατή, αλλά λέει ότι είναι ένα ζήτημα που «δεν πρέπει να αγνοήσουμε».


Άλλα ερωτήματα που τίθενται από το έγγραφο επικεντρώνονται στο τι πρέπει να γίνει με ένα σύστημα τεχνητής νοημοσύνης εάν αυτό οριστεί ως «ηθικός ασθενής» – μια οντότητα που έχει ηθική σημασία «από μόνη της, για τον εαυτό της». Σε αυτό το σενάριο, διερωτάται αν η καταστροφή της τεχνητής νοημοσύνης θα ήταν συγκρίσιμη με τη θανάτωση ενός ζώου.

Το έγγραφο, που δημοσιεύθηκε στην επιθεώρηση Journal of Artificial Intelligence Research, προειδοποίησε επίσης ότι η λανθασμένη πεποίθηση ότι τα συστήματα τεχνητής νοημοσύνης έχουν ήδη συνείδηση θα μπορούσε να οδηγήσει σε σπατάλη πολιτικής ενέργειας, καθώς καταβάλλονται λανθασμένες προσπάθειες για την προώθηση της ευημερίας τους.

Το έγγραφο και η επιστολή οργανώθηκαν από την Conscium, έναν ερευνητικό οργανισμό που χρηματοδοτείται εν μέρει από την WPP και συνιδρύθηκε από τον επικεφαλής της WPP για την τεχνητή νοημοσύνη, Ντάνιελ Χιούλμ.

Πέρυσι μια ομάδα ανώτερων ακαδημαϊκών υποστήριξε ότι υπάρχει «ρεαλιστική πιθανότητα» κάποια συστήματα τεχνητής νοημοσύνης να έχουν συνείδηση και «ηθική σημασία» μέχρι το 2035.

Το 2023, ο Σερ Ντέμις Χάσαμπις, επικεφαλής του προγράμματος τεχνητής νοημοσύνης της Google και κάτοχος του βραβείου Νόμπελ, δήλωσε ότι τα συστήματα ΤΝ δεν έχουν «σίγουρα» συνείδηση επί του παρόντος, αλλά θα μπορούσαν να έχουν στο μέλλον.

«Οι φιλόσοφοι δεν έχουν καταλήξει ακόμη σε έναν ορισμό της συνείδησης, αλλά αν εννοούμε το είδος της αυτογνωσίας, αυτού του είδους τα πράγματα, νομίζω ότι υπάρχει πιθανότητα η τεχνητή νοημοσύνη μια μέρα να είναι», είπε σε συνέντευξή του στο αμερικανικό ραδιοτηλεοπτικό δίκτυο CBS.