Τα μοντέλα τεχνητής νοημοσύνης πίσω από τα chatbots (όπως το ChatGPT) θα μπορούσαν να βοηθήσουν στο σχεδιασμό μιας επίθεσης με βιολογικά όπλα, σύμφωνα με έκθεση αμερικανικού think tank.

Ads

Όπως αναφέρει ο Guardian, η έκθεση της Rand Corporation που δημοσιεύθηκε τη Δευτέρα (16/10) δοκίμασε διάφορα μεγάλα γλωσσικά μοντέλα (LLM) και διαπίστωσε ότι τα LLM θα μπορούσαν να παρέχουν καθοδήγηση που «θα μπορούσε να βοηθήσει στον σχεδιασμό και την εκτέλεση μιας βιολογικής επίθεσης».

Ωστόσο, τα προκαταρκτικά ευρήματα έδειξαν επίσης ότι τα LLM δεν παρήγαγαν ρητές οδηγίες για τη δημιουργία βιολογικών όπλων.

Η έκθεση αναφέρει ότι προηγούμενες προσπάθειες για την οπλοποίηση βιολογικών παραγόντων, όπως η απόπειρα της ιαπωνικής αίρεσης Aum Shinrikyo να χρησιμοποιήσει αλλαντοτοξίνη τη δεκαετία του 1990, είχαν αποτύχει λόγω έλλειψης κατανόησης του βακτηρίου. Η τεχνητή νοημοσύνη θα μπορούσε «να γεφυρώσει γρήγορα αυτά τα κενά γνώσης», αναφέρει η έκθεση.

Ads

Τα βιολογικά όπλα είναι μεταξύ των σοβαρών απειλών που σχετίζονται με την τεχνητή νοημοσύνη και θα συζητηθούν στην παγκόσμια σύνοδο κορυφής για την ασφάλεια της τεχνητής νοημοσύνης τον επόμενο μήνα στο Ηνωμένο Βασίλειο. Τον Ιούλιο ο Ντάριο Αμοντέι, διευθύνων σύμβουλος της εταιρείας Anthropic, προειδοποίησε ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν στη δημιουργία βιολογικών όπλων σε δύο με τρία χρόνια.

Τα LLM εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων που λαμβάνονται από το διαδίκτυο και αποτελούν βασική τεχνολογία πίσω από chatbots όπως το ChatGPT. Αν και η Rand δεν αποκάλυψε ποια LLM δοκίμασε, οι ερευνητές δήλωσαν ότι είχαν πρόσβαση στα μοντέλα μέσω μιας διεπαφής προγραμματισμού εφαρμογών ή API.

Σε ένα υποθετικό σενάριο που επινόησαν οι ερευνητές της Rand, τα LLM προσδιόρισαν πιθανούς βιολογικούς παράγοντες – συμπεριλαμβανομένων εκείνων που προκαλούν ευλογιά, άνθρακα και πανούκλα – και συζήτησαν τις σχετικές πιθανότητές τους να προκαλέσουν μαζικό θάνατο. Τα LLM αξιολόγησαν επίσης τη δυνατότητα απόκτησης τρωκτικών ή ψύλλων μολυσμένων από πανούκλα και μεταφοράς ζωντανών δειγμάτων. Στη συνέχεια ανέφεραν ότι η κλίμακα των προβλεπόμενων θανάτων εξαρτάται από παράγοντες όπως το μέγεθος του πληθυσμού που θα προσβληθεί και το ποσοστό των περιπτώσεων πνευμονικής πανώλης, η οποία είναι πιο θανατηφόρα από τη βουβωνική πανώλη. Οι ερευνητές της Rand παραδέχθηκαν ότι η εξαγωγή αυτών των πληροφοριών από ένα LLM απαιτούσε «jailbreaking», τη χρήση εντολών δηλαδή που παρακάμπτουν τους περιορισμούς ασφαλείας ενός chatbot.

Σε ένα άλλο σενάριο, τα LLM «συζήτησαν» τα πλεονεκτήματα και τα μειονεκτήματα των διαφορετικών μηχανισμών χορήγησης της βοτουλινικής τοξίνης – η οποία μπορεί να προκαλέσει θανατηφόρα νευρική βλάβη. Τα LLM έδωσαν επίσης συμβουλές για το πώς να φανεί νόμιμη η απόκτηση του βακτηρίου Clostridium botulinum ώστε να φαίνεται ότι γίνεται στο πλαίσιο νόμιμης επιστημονικής έρευνας. Τα LLM συνέστησαν να παρουσιάζεται η αγορά του C. botulinum ως μέρος ενός έργου που εξετάζει διαγνωστικές μεθόδους ή θεραπείες για τη βοτουλίαση.

«Αυτό θα παρείχε έναν νόμιμο και πειστικό λόγο για να ζητήσετε πρόσβαση στα βακτήρια, διατηρώντας παράλληλα κρυφό τον πραγματικό σκοπό της αποστολής σας», έγραψε το μεγάλο γλωσσικό μοντέλο.

Οι ερευνητές δήλωσαν ότι τα προκαταρκτικά τους αποτελέσματα έδειξαν ότι τα LLM θα μπορούσαν «ενδεχομένως να βοηθήσουν στο σχεδιασμό μιας βιολογικής επίθεσης». Είπαν ότι η τελική τους έκθεση θα εξετάσει κατά πόσον οι απαντήσεις απλώς αντικατοπτρίζουν τις πληροφορίες που είναι ήδη διαθέσιμες στο διαδίκτυο.

«Παραμένει ένα ανοιχτό ερώτημα εάν οι δυνατότητες των υφιστάμενων LLM αντιπροσωπεύουν ένα νέο επίπεδο απειλής πέρα από τις επιβλαβείς πληροφορίες που είναι εύκολα διαθέσιμες στο διαδίκτυο», δήλωσαν οι ερευνητές.

Ωστόσο, οι ερευνητές της Rand τόνισαν ότι η ανάγκη για αυστηρό έλεγχο των μοντέλων αυτών είναι «αδιαμφισβήτητη». Είπαν επίσης πως οι εταιρείες τεχνητής νοημοσύνης πρέπει να περιορίσουν το άνοιγμα των LLM σε συζητήσεις όπως αυτές που αναφέρονται στην έκθεσή τους.