Θύτες και θύματα της Τεχνητής Νοημοσύνης
…
Ο χρόνος τρέχει. Δεν σταματά ποτέ. Για κανέναν άνθρωπο, για κανένα λόγο. Δεν πρόκειται λοιπόν, να σταματήσει ούτε για ‘μένα. Όχι τουλάχιστον για να γράψω το κείμενο μου για το Common Sense. Πρέπει να βάλω X σε αυτή την επιλογή. Μπα, δεν είναι καν επιλογή. Όχι σήμερα, όχι με τα εργαλεία και τη γνώση που κατέχουμε έως τώρα.
“Ζεις;” (ερώτηση στον Messenger της Meta).
Το ερώτημα θέτει η Εύη Μποτσαροπούλου, αρχισυντάκτρια του Common Sense. Αναρωτιέμαι, ζω; Έχω σφυγμό, αναπνέω, θέτω ο ίδιος το ερώτημα της ύπαρξης στον εαυτό μου. Μάλλον ικανοποιώ τα περισσότερα κριτήρια έμβιου οργανισμού και δη αρκετά προηγμένου, αφού πέρα των βιολογικών λειτουργιών, έχω και επίγνωση της ύπαρξης μου. Cogito ergo sum. Αλλά συνειδητοποιώ ότι η ευφυΐα μου δεν είναι αρκετή για να ετοιμάσω και να παραδώσω μέσα στις επόμενες ώρες ένα κείμενο.
Μπαίνω στον πειρασμό για ένα πείραμα. Να ζητήσω από την τεχνητή νοημοσύνη να γράψει ένα άρθρο για τον εαυτό της. Δεν είναι δύσκολο. Μπορώ να το ζητήσω από το ChatGPT και θα το έχω σε δευτερόλεπτα. Τίθεται όμως ένα μείζον, τουλάχιστον κατ’ εμέ ζήτημα: Θα ήταν το κείμενο αυτό δημιουργικό; Είμαι βέβαιος ότι η μηχανή τεχνητής νοημοσύνης θα μπορούσε να παράξει ένα άρτιο, εξαιρετικό κείμενο και να με αφήσει να σύρω το κουρασμένο μου κορμί στο κρεβάτι μια ώρα αρχύτερα. Άραγε, το Chat GPT κουράζεται; Πονάει;
Η αλήθεια είναι, πώς ούτε κουράζεται, ούτε πονάει, ούτε αντιλαμβάνεται τα ερεθίσματα όπως ένας άνθρωπος. Και αυτό για τον απλούστατο λόγο ότι τα μοντέλα τεχνητής νοημοσύνης όπως το Chat GPT είναι προγνωστικά μοντέλα που ουσιαστικά λειτουργούν με τη χρήση συναρτήσεων πιθανοτήτων. Αντλούν τη γνώση τους από μια τεράστια βάση δεδομένων και με τη χρήση μηχανικής μάθησης επεξεργάζονται δεδομένα ώστε να ανταποκριθούν σε ποικίλα αιτήματα, όπως από την αναπαραγωγή και ανάλυση κειμένων έως την παροχή υπηρεσιών. Δεν μπορούν όμως να είναι δημιουργικά. Ή μάλλον για να είμαι απολύτως ειλικρινής, μπορούν να είναι μερικώς δημιουργικά. Όσο πιο υπολογιστική, όσο πιο “αλγοριθμική” είναι η διαδικασία που καλούνται να εκτελέσουν τόσο πιο δημιουργικά μπορούν να είναι. Από την άλλη, όσο λιγότερο υπολογιστική η διαδικασία, τόσο λιγότερο δημιουργική αυτού του είδους η τεχνητή νοημοσύνη.
Επανέρχομαι λοιπόν στο αρχικό μου ερώτημα. Θα ήταν δημιουργικό το κείμενο που θα έγραφε το Chat GPT για λογαριασμό μου; Νομίζω πως όχι. Σίγουρα θα ήταν ενδιαφέρον από άποψη περιεχομένου, αλλά θα του έλειπαν χαρακτηριστικά που έχουν να κάνουν με το απροσδόκητο, το συγκινησιακό, το αυτοσχεδιαστικό. Θα του έλειπε η ψυχή. Αυτό βέβαια δεν τα καθιστά αδιάφορο. Κάθε άλλο! Η αποτελεσματικότητα του και μόνο το καθιστά όχι μόνο απολύτως ενδιαφέρον, αλλά και απίστευτα χρηστικό. Και δεν έχουμε δει ακόμη τίποτα. Τα τελευταία χρόνια η τεχνητή νοημοσύνη έχει κάνει απίστευτα άλματα και η ταχύτητα με την οποία εξελίσσεται είναι απίστευτη.
Flash back. Πάμε 16 χρόνια πίσω. Παραβρισκόμαστε σε μια από τις πλέον εμβληματικές και επαναστατικές παρουσιάσεις στον χώρο της τεχνολογίας. Το 2007 ο Steve Jobs παρουσίασε το πρώτο i-phone. Ένα άκρως επαναστατικό προϊόν. Εξίσου επαναστατικό με τον πρώτο περιηγητή διαδικτύου (ελληνιστί internet browser) στο όχι και τόσο μακρινό 1990. Χρησιμοποιώντας τον κανόνα των τριών σημείων – μια κρίσιμη έννοια στην θεωρία της επικοινωνίας – ο Jobs ανακοίνωσε τρία προϊόντα σε ένα: Το πρώτο, είπε, ήταν ένα iPod ευρείας οθόνης με χειριστήρια αφής. “Το δεύτερο είναι ένα επαναστατικό κινητό τηλέφωνο”, συνέχισε ο Jobs. “Και το τρίτο είναι μια πρωτοποριακή συσκευή επικοινωνίας στο Διαδίκτυο”. Φανταστείτε πόσο προϊστορικό μας φαίνεται σήμερα το πρώτο i-phone. Φανταστείτε τώρα, που σε τι επίπεδα θα μπορούσε να φτάσει να η τεχνητή νοημοσύνη σε 16 χρόνια από τώρα.
Υπάρχουν πολλοί που υποστηρίζουν ότι ο άνθρωπος θα βρίσκεται πάντα ένα βήμα μπροστά από τη μηχανή. Το ενδεχόμενο αυτό με κάνει να νιώθω πιο ασφαλής. Από την άλλη όμως, δεν είμαι καθόλου βέβαιος ότι πρόκειται για ένα ενδεχόμενο που θα επιβεβαιωθεί. Πάρτε για παράδειγμα, μια παρτίδα σκάκι. Όσοι από εσάς είστε πάνω κάτω στην ηλικία μου (γύρω στα 45 δηλαδή ☹) θα θυμάστε τις μονομαχίες του Gary Kasparov και του Deep Blue της ΙΒΜ το 1996 και 1997. Για τους υπόλοιπους, να αναφέρω ότι την πρώτη παρτίδα, αυτή του 1996 την κέρδισε ο Kasparov. Την επόμενη χρονιά όμως, o Deep Blue επανήλθε δριμύτερος και καλύτερα προετοιμασμένος για να πετύχει την πρώτη νίκη τεχνητής νοημοσύνης σε παρτίδα σκάκι απέναντι σε ένα παγκόσμιο πρωταθλητή. Πολλά έχουν ειπωθεί σχετικά με τη δεύτερη παρτίδα, και μετά από δεκάδες αναλύσεις ειδικών του σκακιού, η επικρατούσα άποψη είναι πως δεν ήταν ο υπολογιστής της IBM που νίκησε τον Kasparov, αλλά ήταν ο Kasparov που έχασε από τον Deep Blue, σε ένα άνευ προηγουμένου κακό παίξιμο εκ μέρους του. Αυτή η προοπτική μας βολεύει ως είδος. Επιβεβαιώνει την ανωτερότητα μας έναντι της μηχανής: την ήττα την έφερε η κακή στιγμή. Να σας προσγειώσω τώρα στην πραγματικότητα. Ξεχάστε αυτές τις κουταμάρες περί ανθρώπινης σκακιστικής, εν προκειμένω, ανωτερότητας. Ο Alpha Zero της DeepMind, σήμερα δεν χάνει ούτε από τον Kasparov, ούτε από τον Fischer, ούτε από τον Carlsen, ούτε από τον Karpov, ούτε απ’ όλους αυτούς μαζί. O Alpha Zero δεν είναι ένα πρόγραμμα σκακιού, είναι μια τεχνητή σκακιστική νοημοσύνη που μαθαίνει σκάκι με κάθε κίνηση, που δεν αναπαράγει κινήσεις, αλλά σχεδιάζει κινήσεις. Και όλα αυτά με μια απίστευτη υπολογιστική ισχύ και ταχύτητα.
Μπορείτε λοιπόν να φανταστείτε, σε τι επίπεδο θα βρίσκεται η τεχνητή νοημοσύνη σε 16 χρόνια από σήμερα. Ή μάλλον δεν μπορείτε. Μην το επιχειρήσετε. Όχι γιατί δεν έχετε αρκετή φαντασία. Άλλωστε, οι αναγνώστες του Common Sense διαθέτουν όχι μόνο κοινή λογική, αλλά και απίστευτη φαντασία. Ο λόγος είναι γιατί η τεχνολογία έχει μια κακή συνήθεια. Σχεδόν ποτέ, δεν εκπληρώνει τον σκοπό για τον οποίο δημιουργείται. Συνήθως ανοίγει άλλους Είχε φανταστεί ο Γουτεμβέργιος ποτέ ότι η εφεύρεση του θα απειλούσε τη Αγία Ρωμαιοκαθολική Εκκλησία, ότι θα προκαλούσε τη δημιουργία σχισμάτων και την ανάδειξη νέων δογμάτων και θα οδηγούσε στη διάδοση της γνώσης; Όχι, βέβαια. Λεφτά ήθελε να βγάλει πουλώντας όσο το δυνατό περισσότερα αντίτυπα της Αγίας Γραφής.
Αυτό που με τρομάζει δεν είναι το επίπεδο και κυρίως η χρήση της τεχνητής νοημοσύνης. Η τεχνητή νοημοσύνη άλλωστε είναι άλλο ένα τεχνολογικό επίτευγμα, και ως εκ τούτου δεν έχει ιδιότητες ανθρώπινες, όπως το καλό και το κακό. Δεν υπάρχει καλή και κακή τεχνολογία. Υπάρχει απλά τεχνολογία. Το τρομακτικό στην όλη υπόθεση βρίσκεται αλλού και στο σημείο αυτό ταυτίζομαι με τον φιλόσοφο Θεοφάνη Τάση: αυτό που τρομάζει είναι η ταχύτητα εξέλιξης της τεχνητής νοημοσύνης, η οποία υπερβαίνει την ικανότητα νομοθετικού ελέγχου και δημιουργίας κανονιστικού πλαισίου.
Τις τελευταίες δύο εβδομάδες συνειδητοποιήσαμε ότι δεν μπορούμε να βασιστούμε σε ηθικούς κανόνες, σε δομές εταιρικής διακυβέρνησης ή ακόμη και σε μέλη του διοικητικών συμβουλίων με αρχές για να μας κρατήσουν ασφαλείς. Προσπάθησαν, αυτό είναι προς τιμή τους, αλλά η προσπάθεια δεν ήταν αρκετή. Η ξαφνική απόλυση και επαναπρόσληψη του Sam Altman, CEO της OpenAI, μιας μη κερδοσκοπικής εταιρείας με εταιρική αποστολή την προτεραιότητα στην ασφάλεια της τεχνητής νοημοσύνης έναντι των κερδών, απέτυχε θεαματικά να κρατήσει τα λουριά κερδοσκόπων. Η OpenAI, Inc. ιδρύθηκε το 2015 με στόχο να διασφαλίσει ότι η τεχνητή γενική νοημοσύνη (Artificial General Intelligence) – αυτόνομα συστήματα που μπορούν να ξεπεράσουν τους ανθρώπους σε όλες ή τις περισσότερες εργασίες – δεν θα γίνεται ανεξέλεγκτη, εάν και εφόσον επιτευχθεί ποτέ. Αρχικά, η εταιρεία προσπάθησε να συγκεντρώσει αρκετά κεφάλαια μέσω δωρεών για να ανταγωνιστεί σε έναν ταχέως αναπτυσσόμενο και εξαιρετικά ανταγωνιστικό τομέα. Αλλά με μόλις 130 εκατομμύρια δολάρια έσοδα σε τρία χρόνια, έπεσε πολύ μακριά από τον στόχο του 1 δισεκατομμυρίου δολαρίων. Αποτέλεσε λοιπόν μονόδρομο η στροφή προς τα ιδιωτικά κεφάλαια, προσπαθώντας να διατηρήσει την αρχική της αποστολή μέσα σε μια περίτεχνη δομή διακυβέρνησης συμπεριλαμβανομένου του Altman ως διευθύνοντα συμβούλου. Ο χρηματοδότης του εγχειρήματος δεν άργησε να βρεθεί. Πρόκειται για την Microsoft η οποία “μπήκε” με 13 δισεκατομμύρια δολάρια!
Όταν πριν από δύο περίπου εβδομάδες το διοικητικό συμβούλιο της OpenAI αποφάσισε να απολύσει τον Altman – προφανώς γιατί η πλειοψηφία των μελών του θεωρούσε υπάρχει σύγκρουση μεταξύ των προσωπικών φιλοδοξιών του και της αποστολής της εταιρείας – ολόκληρη η δομή κατέρρευσε. Η Microsoft μπήκε σφήνα και προσφέρθηκε να προσλάβει τον Άλτμαν και όποιον άλλον ήθελε να τον ακολουθήσει βάζοντας σε κίνδυνο την ίδια την ύπαρξη της OpenAI, αλλά και την δική της επένδυση. Δεκατρία δις δολάρια δεν τα λες και λίγα, αλλά απ’ ότι φαίνεται για την Microsoft μάλλον είναι λίγα σε σύγκριση με τα οφέλη που μπορεί να έχει η εμπορική χρήση της τεχνητής νοημοσύνης. Αν και ο Άλτμαν έχει επαναπροσληφθεί από την OpenAI, μαζί με ένα νέο διοικητικό συμβούλιο που φαίνεται πιο πιθανό να κάνει τα χατίρια του, είναι ασφαλές να υποθέσουμε ότι η Microsoft είναι αυτή που θα κινεί τα νήματα. Άλλωστε, ο Altman οφείλει στη Microsoft τη δουλειά του και το μέλλον της εταιρείας που διευθύνει.
Η υπόθεση αυτή δεν έφερε στην επιφάνεια κάτι καινούργιο. Ιστορικά, το κεφάλαιο είναι αυτό του συνήθως κερδίζει όταν υπάρχουν ανταγωνιστικά οράματα για το μέλλον ενός καινοτόμου προϊόντος ή ενός επιχειρηματικού μοντέλου. Δεν αποτελεί έκπληξη το γεγονός ότι η OpenAI απέτυχε να παραμείνει στην αποστολή. Εάν ολόκληρα κράτη δεν μπορούν να προστατεύσουν τους πολίτες τους από τις λεηλασίες του κεφαλαίου, μια μικρή μη κερδοσκοπική εταιρεία με μια χούφτα καλοπροαίρετα μέλη διοικητικού συμβουλίου δεν έχει καμιά μα καμιά ελπίδα.
Τι σας λέω τώρα, ε; Ποια προστασία των πολιτών; Από ποιον; Το κράτος έχει πάψει προ πολλού να υπηρετεί τον πολίτη. Στις 5 Ιουνίου του 2013, ο κόσμος, ή μάλλον ένα μέρος αυτού γιατί οι περισσότεροι κοιμόμαστε τον ύπνο του δικαίου, ξύπνησε απότομα από τις αποκαλύψεις του Edward Snowden, οι οποίες πρωτοδημοσιεύτηκαν στον Guardian, σχετικά με την παράνομη συλλογή προσωπικών δεδομένων από την Εθνική Υπηρεσία Ασφαλείας (National Security Agency – NSA) των Ηνωμένων Πολιτειών. Και πώς τα συγκέντρωσε τα στοιχεία η NSA; Απλά συνεργάστηκε με τις Google, Microsoft, Facebook, Yahoo!, AT&T, Verizon και ξεπατίκωσε αναζητήσεις χρηστών στο διαδίκτυο, τηλεφωνικές επικοινωνίες, βίντεο και οποιαδήποτε μορφής πληροφορία μπορείτε να φανταστείτε για εκατομμύρια πολίτες και όχι μόνο Αμερικανούς. Και φανταστείτε ότι αυτά συνέβησαν στις ΗΠΑ. Φανταστείτε τώρα, τί συμβαίνει αλλού. Στην Κίνα λέω εγώ τώρα… Πώς θα σας φαινόταν μια σύμπραξη της Κινεζικής κυβέρνησης με τους τεχνολογικούς κολοσσούς Huawei, Ant Group (της Alibaba από την οποία αγοράζουμε φτηνά καλούδια) και μερικές από τις κορυφαίες παγκοσμίως εταιρείες ανάπτυξης τεχνολογιών τεχνητής νοημοσύνης όπως οι SenseTime, Megvii, CloudWalk για την ανάπτυξη τεχνολογιών παρακολούθησης πολιτών μέσω αναγνώρισης προσώπου και εντοπισμού DNA στην επαρχία της Xinjang ή αλλιώς Ανατολικό Τουρκεστάν. Τί έχει εκεί; Ουιγούρους μουσουλμάνους που μάχονται για την ανεξαρτησία τους εδώ και 14 χρόνια. Δεν πουλάει όσο το Παλαιστινιακό, ξέρω.
Και βρισκόμαστε σήμερα εδώ. Από την αρχική ευφορία που προκάλεσε η διάδοση του διαδικτύου και των μέσω κοινωνικής δικτύωσης ως εργαλεία εκδημοκρατισμού, φτάσαμε στο ακριβώς αντίθετο σημείο: τα ψηφιακά εργαλεία είναι εκ φύσεως αντιδημοκρατικά ή με τα λόγια του Yuval Noah Harari, “τεχνολογία ευνοεί την τυραννία”.
Και οι δύο αυτές προοπτικές είναι λανθασμένες. Η ψηφιακή τεχνολογία δεν είναι ούτε φιλοδημοκρατική, ούτε αντιδημοκρατική. Ούτε υπήρχε ανάγκη να αναπτυχθούν τεχνολογίες τεχνητής νοημοσύνης για να εξουσιοδοτήσουν τις κυβερνήσεις να παρακολουθούν τα μέσα ενημέρωσης, να λογοκρίνουν πληροφορίες και να καταπιέζουν τους πολίτες τους. Όλα αυτά είναι μια επιλογή κατεύθυνσης για την τεχνολογία, όχι όμως η μοναδική επιλογή.
Ο χρόνος τρέχει. Πέρασαν σχεδόν τέσσερις ώρες για αυτό το κείμενο. Τελικά συγκρατήθηκα και δεν ζήτησα την βοήθεια του ChatGPT. Βέβαια, βοήθησαν το Tor και η Google. Δεν ξέρω τι θα έγραφε το ChatGPT για την τεχνολογία που το γέννησε. Ξέρω όμως, πως δεν έχει αυτογνωσία, αλλά έχει πρόσβαση σε περισσότερα δεδομένα από μένα. Το κρίσιμο ζήτημα είναι από πού τα αντλεί και με ποιους τρόπους μπορεί να τα χρησιμοποιήσει. Εγώ δεν γνωρίζω. Το κακό βέβαια είναι πως αυτοί που γνωρίζουν, φαίνεται πως δεν μπορούν να εγγυηθούν την προστασία μας.
*Φωτογραφία εξωφύλλου: speckyboy.com