Μία ακόμη νίκη της τεχνητής νοημοσύνης «σε βάρος» της ανθρώπινης παρουσίας. Ο λόγος για το AlphaGo που έχει αναπτύξει η DeepMind της Google και πρόκειται για ένα πρόγραμμα που κατάφερε να νικήσει τον πρώτο από τους αγώνες του κινεζικού παιχνιδιού Go, ενάντια στον πρωταθλητή Κε Τζι.

Ads

Το Go είναι ένα επιτραπέζιο παιχνίδι στρατηγικής που ξεκίνησε από την Κίνα και στο οποίο οι δύο παίκτες προσθέτουν εναλλάξ πέτρες στο ταμπλό, περικυκλώνοντας την περιοχή και φυλακίζοντας πέτρες του αντιπάλου τους με απώτερο σκοπό να προστατεύσουν τις δικές τους.

Το Go φημίζεται για τους απλούς του κανόνες αλλά και για τη περίπλοκη στρατηγική που πρέπει να εφαρμόσουν οι παίκτες προκειμένου να κερδίσουν την παρτίδα. Η στρατηγική που πρέπει να χρησιμοποιήσουν οι παίκτες θεωρείται ότι ξεπερνά άλλα παιχνίδια όπως το σκάκι. Η κάθε παρτίδα τελειώνει όταν και οι δύο παίκτες συμφωνήσουν ότι δεν υπάρχουν άλλες κινήσεις που μπορούν να γίνουν, ενώ η τελική βαθμολογία συγκροτείται από το μέγεθος της περιοχής που ελέγχει κάθε παίκτης και τον αριθμό των πετρών που κατάφερε να δεσμεύσει.

Πέρυσι, όπως αναφέρει το Αθηναϊκό Πρακτορείο Ειδήσεων, το AlphaGo είχε σημειώσει ιστορική νίκη εναντίον του πρωταθλητή Λι Σε-Ντολ, η οποία έχει χαρακτηριστεί από τους ειδικούς ως ορόσημο για την εξέλιξη της τεχνητής νοημοσύνης.

Ads

Ο Κε Τζι περιέγραψε το AlphaGo ως τον «θεό των παικτών του Go», ενώ ο Ντέμις Χασάμπις, συνιδρυτής της DeepMind, ευχαρίστησε τον παίκτη για αυτόν τον σκληρό αγώνα. «Ήταν ένα συναρπαστικό παιχνίδι και φάνηκε πόση προετοιμασία είχε κάνει ο Κε Τζι εν όψει του αγώνα», δήλωσε στο βρετανικό ειδησεογραφικό δίκτυο ο Χασάμπις μετά τη λήξη του παιχνιδιού. «Ήταν ιδιαίτερα ενδιαφέρον για εμάς να τον βλέπουμε να χρησιμοποιεί κινήσεις από προηγούμενα παιχνίδια του AlphaGo, ενώ θέλαμε να δούμε πώς το πρόγραμμα διαχειρίζεται τις δικές του στρατηγικές. Τρέφουμε τεράστια εκτίμηση για τον Κε Τζι που κατάφερε να σπρώξει το AlphaGo στα όριά του». Ο ίδιος προσέθεσε ότι απώτερος σκοπός του προγράμματος είναι η εφαρμογή του σε τομείς της ιατρικής και της επιστήμης.

Σχετικά με τον αγώνα ο Κε Τζι δήλωσε ότι υπήρξαν ορισμένες απροσδόκητες κινήσεις που τον εντυπωσίασαν. «Σοκαρίστηκα αρκετά από το γεγονός ότι υπήρξαν ορισμένες κινήσεις που δεν θα γίνονταν σε ένα παιχνίδι μεταξύ ανθρώπων», είπε και προσέθεσε ότι το AlphaGo είναι ένας «θαυμάσιος παίκτης», εντελώς διαφορετικός από πέρυσι.

Το δεύτερο παιχνίδι πρόκειται να διεξαχθεί την Πέμπτη, ενώ ο τελικός θα πραγματοποιηθεί το Σάββατο.

Τα video games σύμμαχοι της AI

Τον περασμένο χρόνο ο Artur Filipowicz, επιστήμονας υπολογιστών στο πανεπιστήμιο του Princeton, αντιμετώπισε ένα συγκεκριμένο πρόβλημα. Ο Δρ Filipowicz «μαθαίνει» στα αυτοκίνητα πώς να βλέπουν και να ερμηνεύουν τον κόσμο, με σκοπό να μπορούν να οδηγήσουν χωρίς βοήθεια. Μια ικανότητα που χρειάζονται είναι αυτή της αναγνώρισης των σημείων στάσης. Για το σκοπό αυτό, προσπαθούσε να εκπαιδεύσει έναν κατάλληλο αλγόριθμο. Μια τέτοια εκπαίδευση σήμαινε την εμφάνιση/παρουσίαση σε αυτόν τον αλγόριθμο (ή, μάλλον, στον υπολογιστή που την τρέχει) πολλών εικόνων με σημεία στάσης (stop) σε πολλές διαφορετικές περιστάσεις: Stop που έχουν μερικώς κρυφτεί από φορτηγά ή κτίρια · stop σε ηλιόλουστες θέσεις, σε βροχερούς χώρους και σε ομίχλη. Stop την ημέρα, το σούρουπο και τη νύχτα.

Η απόκτηση όλων αυτών των εικόνων από τις βιβλιοθήκες φωτογραφιών θα ήταν δύσκολη, δυσκολότερη η φωτογράφηση από τον ίδιο. Αντ ‘αυτού, ο Δρ Filipowicz στράφηκε στο «Grand Theft Auto V», την πιο πρόσφατη έκδοση μιας γνωστής σειράς βιντεοπαιχνιδιών. Το «Grand Theft Auto V» είναι αμφιλεγόμενο λόγω της ρεαλιστικής απεικόνισης του εγκλήματος και της βίας – αλλά για την ανάγκη του Δρ. Filipowicz ήταν ιδανικό, επειδή διαθέτει πάμπολλα και ρεαλιστικά σήματα στάσης. Πειράζοντας το λογισμικό του παιχνιδιού, είχε χιλιάδες εικόνες αυτών των πινακίδων, σε κάθε είδους καταστάσεις, για τον αλγόριθμό του.

Όπως εξηγεί εκτενές δημοσίευμα του Economist, οι πινακίδες στάσης του Dr Filipowicz είναι ένα παράδειγμα της αγάπης που έχουν για τα βιντεοπαιχνίδια οι ερευνητές της τεχνητής νοημοσύνης. Υπάρχουν πολλοί λόγοι για αυτήν τη δημοτικότητα. Μερικοί άνθρωποι, όπως ο Δρ. Filipowicz, χρησιμοποιούν τα παιχνίδια ως εκπαιδευτικά μέσα για τον πραγματικό κόσμο. Άλλοι, παρατηρώντας ότι διαφορετικά παιχνίδια απαιτούν διαφορετικές γνωστικές δεξιότητες, πιστεύουν ότι τα παιχνίδια μπορούν να τους βοηθήσουν να καταλάβουν πώς το πρόβλημα της νοημοσύνης μπορεί να κατανεμηθεί σε μικρότερα, περισσότερο διαχειρίσιμα κομμάτια. Άλλοι ακόμη, βασιζόμενοι σε αυτές τις δύο παρατηρήσεις, πιστεύουν ότι τα παιχνίδια μπορούν να τους βοηθήσουν να αναπτύξουν μια σωστή θεωρία της τεχνητής (και ίσως και φυσικής) νοημοσύνης.

image

Μέχρι που φτάνουν τα όρια της τεχνητής νοημοσύνης;

Αυτό είναι κάτι που δεν μπορεί να απαντηθεί προς το παρόν, αλλά σίγουρα η τεχνητή νοημοσύνη συνεχίζει να μας εντυπωσιάζει. Η Google είναι μια από τις εταιρείες που κάνει μεγάλα βήματα στην ανάπτυξη της τεχνητής νοημοσύνης (AI).

To 2016 η εταιρεία τεχνητής νοημοσύνης Deepmind, η οποία υπάγεται στην Google, ανακοίνωσε την συνεργασία της με τη Blizzard Entertainment ώστε να «ανοίξει» το δημοφιλές παιχνίδι στρατηγικής της, Starcraft 2, σε ερευνητές τεχνητής νοημοσύνης και machine learning από όλο τον κόσμο.

Εδώ και περίπου 20 χρόνια, τα Starcraft 1 και 2 θεωρούνται ως τα κορυφαία ανταγωνιστικά multiplayer παιχνίδια του κόσμου.

Έτσι, σύμφωνα με την εταιρεία, τα παιχνίδια αποτελούν τον ιδανικό χώρο για την ανάπτυξη προγραμμάτων τεχνητής νοημοσύνης, η οποία επιδιώκεται να προωθηθεί σε όλον τον πλανήτη.

Master στο Atari

Η DeepMind μπορεί να «τερματίσει» 49 παιχνίδια Atari. Ίσως να μην ακούγεται ως σημαντικό κατόρθωμα για έναν άνθρωπο, είναι όμως ένα σημαντικό βήμα για τη μάθηση των μηχανών. Ο Max Planck, διευθυντής του Max Planck Institute for Intelligent Systems, λέει πως «αυτή η μέθοδος είναι εξαιρετικά αποτελεσματική. Παρουσίασε μεγάλο βαθμό προσαρμοστικότητας. Κάθε σύστημα, παρόλο που εκπαιδεύτηκε σε ένα παιχνίδι, έμαθε τα υπόλοιπα 48 από τα άλλα συστήματα. Τα games που έπαιζαν οι υπολογιστές είναι ένα καλύτερο μοντέλο χάους πραγματικού κόσμου από τα προηγούμενα, όπως το σκάκι».

Τα πειράματα διεξήχθησαν με θετική ανταμοιβή. Κάθε φορά που η AI έκανε high score ή περνούσε σε νέο επίπεδο, ανταμειβόταν. Σε 29 από τα 49 games, η ΑΙ απέδωσε καλύτερα από τους ανθρώπους. Δείτε στο παρακάτω video πως έμαθε να παίζει Breakout και παρατηρήστε πως εξελίσσεται η στρατηγική της AI όσο παίζει περισσότερο.

Ερευνητές από το Google Brain deep learning project ανακοίνωσαν πρόσφατα ότι δίδαξαν στο σύστημα τεχνητής νοημοσύνης πως να δημιουργεί τέχνη. Αυτή τη φορά έχουν κάτι λίγο πιο «σκοτεινό»: ένα σύστημα κρυπτογράφησης ανεξάρτητο από τον άνθρωπο.

Σύμφωνα με την έρευνα των Martín Abadi και David G. Andersen, επετράπη σε τρία δοκιμαστικά νευρωνικά δίκτυα -ονόματι Alice, Bob και Eve – να ανταλλάξουν σημειώσεις το ένα με το άλλο χρησιμοποιώντας μια μέθοδο κρυπτογράφησης που δημιούργησαν μόνα τους.

Κάθε σύστημα τεχνητής νοημοσύνης έπρεπε να φέρει εις πέρας μια αποστολή. H Alice έπρεπε να στείλει ένα μυστικό μήνυμα που μόνο ο Bob μπορούσε να διαβάσει, ενώ η Eve θα προσπαθούσε να αφουγκραστεί και να το αποκρυπτογραφήσει. Το πείραμα άρχισε με ένα κείμενο το οποίο η Alice κρυπτογράφησε και ο Bob μπορούσε να το διαβάσει με τη χρήση κλειδιού κρυπτογράφησης.

Αρχικά οι Alice και Bob, δεν μπόρεσαν να κρύψουν καλά το μυστικό τους, αλλά μετά από 15.000 προσπάθειες, η Alice κατάφερε να δημιουργήσει την δική της στρατηγική κρυπτογράφησης και ο Bob ταυτόχρονα βρήκε πως να την αποκρυπτογραφήσει.

Τεχνητή νοημοσύνη έμαθε να παίζει ένα από τα πιο δύσκολα βιντεοπαιχνίδια 

Το συγκεκριμένο σύστημα αναπτύχθηκε από ομάδα επιστημόνων στο Stanford University στην Καλιφόρνια, και το παιχνίδι είναι το Montezuma’s Revenge, όπου οι παίκτες ψάχνουν θησαυρούς σε έναν ναό των Αζτέκων. Όπως σημειώνει το New Scientist, πρόκειται για ένα παιχνίδι που θεωρείται δύσκολο για μια τεχνητή νοημοσύνη να μάθει, λόγω των σπάνιων ανταμοιβών: Ο παίκτης πρέπει να κάνει πολλές κινήσεις πριν κερδίσει πόντους.

Οι περισσότερες τεχνητές νοημοσύνες που παίζουν παιχνίδια χρησιμοποιούν το reinforcement learning για να αναπτύξουν μια στρατηγική και στη συνέχεια βασίζονται σε «ανταμοιβές», όπως πόντοι στο παιχνίδι, για να καταλαβαίνουν εάν παίζουν σωστά. Για να κάνουν την τεχνητή τους νοημοσύνη να «πιάσει» τις τακτικές του παιχνιδιού πιο γρήγορα, οι επιστήμονες του Stanford έδωσαν στο σύστημά τους βοήθεια μέσω οδηγιών σε φυσική, απλή γλώσσα (πχ «ανέβα στη σκάλα», «πάρε το κλειδί» κ.α.).

«Σκεφτείτε να διδάσκετε σε ένα παιδί πώς να παίζει τένις, δίνοντάς του μια ρακέτα και αφήνοντάς του μπροστά σε μια μηχανή που εκτοξεύει μπαλάκια για 10 χρόνια. Βασικά αυτός είναι ο τρόπος που εκπαιδεύουμε την τεχνητή νοημοσύνη σήμερα» λέει ο Ράσελ Κάπλαν, μέλος της ομάδας. «Αποδεικνύεται πως τα παιδιά μας μαθαίνουν πολύ πιο γρήγορα με έναν προπονητή».

Η εκπαίδευση μιας τεχνητής νοημοσύνης με αυτόν τον τρόπο θα είχε σημαντικές επιπτώσεις, καθώς η χρήση φυσικής γλώσσας σημαίνει πως ο καθένας μπορεί να εκπαιδεύει- συμβουλεύει την τεχνητή νοημοσύνη, όχι μόνο οι προγραμματιστές.

Οι επιστήμονες εκπαίδευσαν πρώτα την τεχνητή νοημοσύνη να συσχετίζει τις οδηγίες με εικόνες της ίδιας ενέργειας, ενώ πραγματοποιείται στο παιχνίδι. Μετά την άφησαν να εξασκηθεί, παίζοντας το παιχνίδι με μια λίστα οδηγιών για κάθε δωμάτιο από το οποίο περνά ο χαρακτήρας, λαμβάνοντας ανταμοιβές για την εκτέλεση εντολών και για την πρόοδο στο παιχνίδι. Για να δείξουν πως το σύστημα αναπτύσσει κατανόηση εντολών όπως «σκαρφάλωσε τη σκάλα», οι ερευνητές έκαναν άλλο ένα πείραμα, όπου αφαίρεσαν τα εκπαιδευτικής αξίας δεδομένα από το δεύτερο δωμάτιο. Το σύστημα ήταν και πάλι σε θέση να ακολουθήσει τις οδηγίες για το δωμάτιο εκείνο, ακόμα και αν δεν το είχε ξαναδεί.

Το σύστημα σημείωσε σκορ 3.500 πόντων στο παιχνίδι, ξεπερνώντας το κορυφαίο σκορ (2.500) στο OpenAI Gym, μια online πλατφόρμα που δοκιμάζει τεχνητές νοημοσύνες σε εικονικά περιβάλλοντα. Μια τεχνητή νοημοσύνη της DeepMind (Google) έχει πιάσει σκορ 6.600 πόντων, αλλά έχει εκπαιδευτεί για διπλάσιο χρονικό διάστημα, συνδυάζοντας το reinforcement learning με μια άλλη προσέγγιση (intrinsic motivation), που ανταμείβει την ΑΙ όταν παρουσιάζει περιέργεια και εξερευνά το περιβάλλον της.