Η OpenAI δημοσίευσε την Πέμπτη (30/5) την πρώτη της έκθεση σχετικά με το πώς τα εργαλεία τεχνητής νοημοσύνης της χρησιμοποιούνται από ομάδες ατόμων από διάφροες χώρες για παραπληροφόρηση, αποκαλύπτοντας παράλληλα ότι η εταιρεία διέκοψε εκστρατείες που προέρχονταν από τη Ρωσία, την Κίνα, το Ισραήλ και το Ιράν.

Ads

Όπως αναφέρει σε δημοσίευμα του ο Guardian, οι κακόβουλοι φορείς χρησιμοποίησαν τα μοντέλα τεχνητής νοημοσύνης της εταιρείας για να δημιουργήσουν και να δημοσιεύσουν προπαγανδιστικό περιεχόμενο σε πλατφόρμες κοινωνικής δικτύωσης και να μεταφράσουν το περιεχόμενό τους σε άλλες γλώσσες. Σύμφωνα με την έκθεση, καμία από τις εκστρατείες αυτές δεν απέκτησε απήχηση, ούτε έφτασε σε μεγάλα ακροατήρια.

Η 39σέλιδη έκθεση της OpenAI είναι μία από τις πιο λεπτομερείς αναφορές από εταιρία τεχνητής νοημοσύνης σχετικά με τη χρήση του λογισμικού της για προπαγάνδα. Η OpenAI ισχυρίστηκε ότι οι ερευνητές της βρήκαν και απαγόρευσαν λογαριασμούς που σχετίζονται με πέντε μυστικές επιχειρήσεις επιρροής τους τελευταίους τρεις μήνες, οι οποίοι προέρχονταν από ένα μείγμα κρατικών και ιδιωτικών φορέων.

Στη Ρωσία, δύο επιχειρήσεις δημιούργησαν και διέδωσαν περιεχόμενο που επέκρινε τις ΗΠΑ, την Ουκρανία και διάφορες χώρες της Βαλτικής. Μία από τις επιχειρήσεις χρησιμοποίησε ένα μοντέλο της OpenAI για τη δημιουργία ενός bot που δημοσιεύτηκε στο Telegram. Η επιχείρηση από την Κίνα δημιούργησε κείμενο στα αγγλικά, κινεζικά, ιαπωνικά και κορεατικά, το οποίο οι πράκτορες στη συνέχεια δημοσίευσαν στο Twitter και στο Medium.

Ads

Οι Ιρανικές επιχειρήσεις δημιούργησαν πλήρη άρθρα που επιτίθονταν στις ΗΠΑ και το Ισραήλ, τα οποία μετέφρασαν στα αγγλικά και τα γαλλικά. Μια ισραηλινή πολιτική εταιρεία με την ονομασία Stoic διηύθυνε ένα δίκτυο ψεύτικων λογαριασμών στα μέσα κοινωνικής δικτύωσης, οι οποίοι δημιούργησαν ένα ευρύ φάσμα περιεχομένου, συμπεριλαμβανομένων αναρτήσεων που κατηγορούσαν ως αντισημιτικές τις διαμαρτυρίες Αμερικανών φοιτητών κατά του πολέμου του Ισραήλ στη Γάζα.

Το υπουργείο Οικονομικών των ΗΠΑ επέβαλε κυρώσεις σε δύο Ρώσους τον Μάρτιο, οι οποίοι φέρονται να βρίσκονταν πίσω από μία από τις εκστρατείες που εντόπισε το OpenAI, ενώ η Meta απέκλεισε την Stoic από την πλατφόρμα της φέτος για παραβίαση των πολιτικών της.

Η έκθεση υπογραμμίζει επίσης πώς η τεχνητή νοημοσύνη ενσωματώνεται σε εκστρατείες παραπληροφόρησης ως μέσο βελτίωσης ορισμένων πτυχών της δημιουργίας περιεχομένου, όπως η δημιουργία πιο πειστικών ξενόγλωσσων αναρτήσεων, αλλά ωστόσο αυτό δεν αποτελέι την μόνη χρήση για την προπαγάνδα.

«Όλες αυτές οι επιχειρήσεις χρησιμοποίησαν την τεχνητή νοημοσύνη σε κάποιο βαθμό, αλλά καμία δεν τη χρησιμοποίησε σε όλο το περιεχόμενο», αναφέρεται στην έκθεση.

«Αντίθετα, το υλικό που δημιουργούσε η τεχνητή νοημοσύνη ήταν απλώς ένας από τους πολλούς τύπους περιεχομένου που αναρτούσαν, μαζί με πιο παραδοσιακές μορφές, όπως χειρόγραφα κείμενα ή memes που αναπαράγονταν από όλο το διαδίκτυο».

Όπως σημειώνει ο Guardian, παρόλο που καμία από τις εκστρατείες δεν είχε αξιοσημείωτο αντίκτυπο, η χρήση της τεχνολογίας με αυτό τον σκοπό δείχνει πώς οι κακόβουλοι φορείς διαπιστώνουν ότι η τεχνητή νοημοσύνη τους επιτρέπει να κλιμακώσουν την παραγωγή προπαγάνδας. Η συγγραφή, η μετάφραση και η ανάρτηση περιεχομένου μπορούν πλέον να γίνουν πιο αποτελεσματικά μέσω της χρήσης εργαλείων τεχνητής νοημοσύνης.

Η OpenAI δήλωσε ότι σχεδιάζει να δημοσιεύει περιοδικά παρόμοιες εκθέσεις σχετικά με τις μυστικές επιχειρήσεις επιρροής, καθώς και να αφαιρεί λογαριασμούς που παραβιάζουν τις πολιτικές της.