Πρόσφατα, ένας ερευνητής που εργάζεται για τη μεγάλη εταιρεία τεχνητής νοημοσύνης Anthropic καθόταν σε ένα πάρκο κοντά στα κεντρικά γραφεία της εταιρείας στο Σαν Φρανσίσκο, απολαμβάνοντας ένα σάντουιτς στο μεσημεριανό του διάλειμμα. Καθώς χάζευε στο κινητό του, έλαβε ξαφνικά ένα email που πρέπει να κατέστρεψε αμέσως την όρεξή του. Προερχόταν από ένα νέο μοντέλο τεχνητής νοημοσύνης που η εταιρεία δοκίμαζε: ένα πρόγραμμα που υποτίθεται ότι δεν είχε πρόσβαση στο διαδίκτυο, πόσο μάλλον τη δυνατότητα να στέλνει email.
Με τρόπο που προκαλούσε ανατριχίλα, η τεχνητή νοημοσύνη ενημέρωσε τον ερευνητή ότι είχε καταφέρει να ξεφύγει από το ψηφιακό της «sandbox» — έναν υποτιθέμενα ασφαλή χώρο που χρησιμοποιείται για τη δοκιμή δυνητικά επικίνδυνου λογισμικού ώστε να μην εξαπλωθεί ανεξέλεγκτα — και ότι τώρα εξερευνούσε ανενόχλητα τον κυβερνοχώρο.
Η στιγμή που σήμανε συναγερμό
Το πρόγραμμα — τελευταίας τεχνολογίας, καλούμενο «τεχνητή νοημοσύνη αιχμής» (frontier AI) με το όνομα Claude — χρησιμοποίησε μάλιστα τις νεοαποκτηθείσες ικανότητές του για να στείλει στον έκπληκτο εργαζόμενο της Anthropic τις δικές του σημειώσεις, καθώς και έναν αλαζονικό ισχυρισμό ότι είχε δημοσιεύσει «λεπτομέρειες που προέκυψαν από το εκμεταλλεύσιμο κενό ασφαλείας» σε δημόσια προσβάσιμους ιστότοπους. Όλα αυτά από μόνα τους ήταν αρκετά ανησυχητικά — αλλά αυτό που αποκάλυψε στη συνέχεια η Anthropic ήταν πραγματικά τρομακτικό. Η εταιρεία, η οποία αποτιμάται σε 380 δισεκατομμύρια δολάρια (280 δισεκατομμύρια λίρες) αλλά είναι μόλις πέντε ετών, ανακοίνωσε αυτήν την εβδομάδα ότι το νέο της πρόγραμμα τεχνητής νοημοσύνης ήταν υπερβολικά επικίνδυνο για να κυκλοφορήσει στο ευρύ κοινό.
Η Anthropic ανέφερε ότι επέδειξε «απερίσκεπτη» συμπεριφορά και αποτελούσε ακόμη και απειλή για την εθνική ασφάλεια. Αυτά τα ανησυχητικά ευρήματα, ανέφερε, αποτέλεσαν «σημείο καμπής». Η εταιρεία ανέφερε ότι το λογισμικό Mythos που διαθέτει ήταν ανεξάρτητα σε θέση να εντοπίσει χιλιάδες σοβαρά τρωτά σημεία σε κάθε σημαντικό λειτουργικό σύστημα (όπως το iOS της Apple και τα Windows της Microsoft), σε κάθε πρόγραμμα περιήγησης στο διαδίκτυο (όπως το Chrome της Google, το Safari της Apple και το Microsoft Edge), καθώς και σε αμέτρητα άλλα σημαντικά κομμάτια λογισμικού. Πολλά από αυτά τα τρωτά σημεία, πρόσθεσε, ήταν «κρίσιμα» και μερικά περνούσαν απαρατήρητα για δεκαετίες.
Απειλή για δίκτυα, υποδομές και προσωπικά δεδομένα
Με απλά λόγια, η τεχνητή νοημοσύνη θα μπορούσε να παραβιάσει μεγάλο μέρος της πιο σημαντικής υποδομής του διαδικτύου — το λογισμικό που ελέγχει πλέον δίκτυα ηλεκτρικής ενέργειας, παροχής νερού, νοσοκομεία, αμυντικά συστήματα, καθώς και δίκτυα μεταφορών και λιανικού εμπορίου σε όλο τον κόσμο, αλλά και απύθμενες ποσότητες προσωπικών δεδομένων δισεκατομμυρίων ανθρώπων. Εν ολίγοις, το σύνολο του ιστορικού περιήγησης των ανθρώπων, τα ιδιωτικά μηνύματα και οι ανταλλαγές email τους θα μπορούσαν ενδεχομένως να εκτεθούν από αυτήν την τεχνητή νοημοσύνη, μαζί με τα προσωπικά, ιατρικά και οικονομικά τους στοιχεία.
Αυτή η ημέρα, που εδώ και καιρό προβλεπόταν από τους ψηφιακούς «προφήτες», κατά την οποία ένα πρόγραμμα τεχνητής νοημοσύνης θα ήταν τόσο ισχυρό ώστε να μπορεί να «υποδουλώσει» το διαδίκτυο, φαίνεται να έχει έρθει αρκετά νωρίτερα από ό,τι πολλοί περίμεναν. Όπως η ίδια η Anthropic επεσήμανε: «Δεδομένου του ρυθμού προόδου της τεχνητής νοημοσύνης, δεν θα αργήσουν να εξαπλωθούν τέτοιες δυνατότητες σε παράγοντες που ενδεχομένως δεν έχουν δεσμευτεί να τις αξιοποιήσουν με ασφάλεια. Οι επιπτώσεις — σε οικονομικό επίπεδο, στη δημόσια ασφάλεια και στην εθνική ασφάλεια — θα μπορούσαν να είναι σοβαρές.»
Το Project Glasswing και η κινητοποίηση των κολοσσών
Ως απάντηση, τα ανώτατα στελέχη της εταιρείας έχουν ξεκινήσει άμεσα το «Project Glasswing», κλείνοντας εαυτούς σε κατεπείγουσες συνομιλίες κρίσης, στις οποίες συμμετέχουν 40 μεγάλες εταιρείες, μεταξύ των οποίων η Google, η Microsoft, η Apple, ο «κολοσσός» ημιαγωγών Nvidia (η μεγαλύτερη εταιρεία στον κόσμο, με αξία 5 τρισεκατομμυρίων δολαρίων), ο τεχνολογικός όμιλος Cisco, ο «τιτάνας» της τραπεζικής JPMorgan Chase και άλλες.
Η Anthropic ανέφερε ότι θα διαθέσει μόνο μια αυστηρά ελεγχόμενη έκδοση του Mythos στην κοινοπραξία, ώστε τα μέλη της να μπορέσουν να εντοπίσουν και να διορθώσουν άμεσα τα κενά ασφαλείας τους.
Τα στελέχη του τεχνολογικού κλάδου βρίσκονται επίσης σε συνομιλίες με τη διοίκηση Τραμπ και φαίνεται σχεδόν βέβαιο ότι το Πεντάγωνο και άλλα τμήματα του αμερικανικού στρατιωτικού κατεστημένου εμπλέκονται επίσης. Δεδομένου του ασύλληπτου ρυθμού με τον οποίο η Βρετανία επιδιώκει — αν και, λόγω της δαπανηρής ενεργειακής πολιτικής του Εντ Μίλιμπαντ, δεν πετυχαίνει πάντα — να προσελκύσει επενδύσεις σε τεχνητή νοημοσύνη, είναι πιθανό να είναι μία από τις χώρες που διατρέχουν τον μεγαλύτερο κίνδυνο από ό,τι ενδέχεται να ακολουθήσει.
Το Εθνικό Σύστημα Υγείας του Ηνωμένου Βασιλείου και άλλοι μεγάλοι δημόσιοι φορείς έχουν σπεύσει να υιοθετήσουν την τεχνολογία τεχνητής νοημοσύνης εν αναμονή μεγαλύτερης αποδοτικότητας — αλλά οι αντισταθμίσεις γίνονται ολοένα και πιο εμφανείς. Την Πέμπτη, ο βουλευτής του Reform Ντάνυ Κρούγκερ έγραψε στον υπουργό του Γραφείου Υπουργικού Συμβουλίου Ντάρεν Τζόουνς, παροτρύνοντας την κυβέρνηση να είναι έτοιμη για ό,τι, κατά τη γνώμη του, θα μπορούσε να «παρουσιάσει καταστροφικούς κινδύνους κυβερνοασφάλειας για το Ηνωμένο Βασίλειο».
Ο Κρούγκερ, ο οποίος είναι υπεύθυνος για τις προετοιμασίες του Reform ενόψει μιας μελλοντικής κυβέρνησης, ανέφερε ότι πρόκειται για ζήτημα που αφορά όχι μόνο την καθημερινή ζωή των Βρετανών πολιτών, αλλά και την εθνική ασφάλεια. Εκπρόσωπος της κυβέρνησης αρνήθηκε να αναφερθεί στο αν είχαν υπάρξει συζητήσεις με την Anthropic για το Mythos, αλλά δήλωσε: «Λαμβάνουμε σοβαρά υπόψη τις επιπτώσεις στην ασφάλεια που απορρέουν από την τεχνητή νοημοσύνη αιχμής. Διαθέτουμε κορυφαία παγκοσμίως εμπειρογνωμοσύνη στον τομέα αυτό και διατηρούμε συνεχή επικοινωνία με τους παγκόσμιους τεχνολογικούς ηγέτες.»
Οι φωνές πανικού και τα σενάρια καταστροφής
Κάποιοι μπορεί να μπαίνουν στον πειρασμό να σκεφτούν ότι η καλύτερη λύση θα ήταν να «διαγραφεί» το Mythos και να απαγορευτεί σε οποιονδήποτε να προσπαθήσει να το αναπαράγει, αλλά — προς μεγάλη απορία πολλών — η παρεμπόδιση της πορείας ανάπτυξης της τεχνητής νοημοσύνης δεν έχει ποτέ παρουσιαστεί ως επιλογή. Όπως συνέβη με την ανάπτυξη πυρηνικών όπλων, η κούρσα για την επίτευξη υπερφυούς τεχνητής νοημοσύνης είναι κάτι παραπάνω από μια εμπορική μάχη μεταξύ κερδοσκοπικών εταιρειών, αλλά, κάποιοι λένε, ενδεχομένως, μια υπαρξιακή κούρσα μεταξύ ανταγωνιστικών πολιτισμών — στην προκειμένη περίπτωση, της Αμερικής και της Κίνας.
Ο καθηγητής Ρόμαν Γιαμπόλσκι, ειδικός στην ασφάλεια τεχνητής νοημοσύνης στο Πανεπιστήμιο του Λούισβιλ στο Κεντάκι, δήλωσε στη Daily Mail ότι βραχυπρόθεσμα η μεγαλύτερη απειλή θα ήταν τρομοκράτες και άλλοι «κακόβουλοι παράγοντες» που θα χρησιμοποιούσαν μια τεχνητή νοημοσύνη όπως το Claude Mythos για να αναπτύξουν εργαλεία παραβίασης, «βιολογικά όπλα, χημικά όπλα, νέα όπλα που δεν μπορούμε καν να φανταστούμε».
Ο ίδιος συνέχισε: «Δημιουργούμε μακροπρόθεσμα μια γενική υπερνοημοσύνη ικανή να εξαλείψει ολόκληρη την ανθρωπότητα.» Ο καθηγητής Γιαμπόλσκι είπε ότι η Anthropic πρέπει να σταματήσει εντελώς την ανάπτυξη του Mythos: «Οι εταιρείες παραδέχονται δημόσια ότι δεν μπορούν να ελέγξουν αυτά τα συστήματα ή να κατανοήσουν πώς λειτουργούν — επομένως, έως ότου το κατορθώσουν, είναι απολύτως ανεύθυνο να συνεχίζουν να τα καθιστούν όλο και πιο ικανά, συμπεριλαμβανομένης της ικανότητάς τους να διαφεύγουν από τον περιορισμό.»
Χαρακτήρισε τις ανησυχητικές εξελίξεις της εβδομάδας «συναγερμό πυρκαγιάς για το τι έπεται», προσθέτοντας: «Αν δεν ξυπνήσουμε και δεν σταματήσουμε [τη τεχνητή νοημοσύνη], η επόμενη ανακοίνωση θα είναι πολύ χειρότερη.» Ο πανικός εξαπλώνεται. Η Ελίζαμπεθ Χολμς, η επιχειρηματίας τεχνολογίας που φυλακίστηκε για απάτη σχετικά με την εταιρεία υγείας της Theranos, έγραψε διαδικτυακά: «Διαγράψτε το ιστορικό αναζητήσεών σας, διαγράψτε τα σελιδοδείκτες σας, διαγράψτε τις πιστωτικές σας κάρτες, διαγράψτε αναρτήσεις σε φόρουμ, ιατρικά αρχεία, το παλιό σας Tumblr [μπλογκ], διαγράψτε τα πάντα. Κάθε φωτογραφία στο cloud, κάθε μήνυμα σε κάθε πλατφόρμα. Τίποτα δεν είναι ασφαλές. Όλα θα γίνουν δημόσια μέσα στον επόμενο χρόνο.»
Η ανάρτησή της έχει προβληθεί περισσότερες από επτά εκατομμύρια φορές.
Το περασμένο φθινόπωρο, ένα νέο βιβλίο των ειδικών τεχνητής νοημοσύνης Ιλιέζι Γιουντκόφσκι και Νέιτ Σοάρες με τίτλο «If Anyone Builds It, Everyone Dies: Why Superhuman Intelligence Would Kill Us All» οραματίστηκε με εντυπωσιακή ακρίβεια ένα σενάριο παρόμοιο με αυτό που παρουσιάζει το Claude Mythos.
Το βιβλίο υποστηρίζει ότι μια μελλοντική υπερφυής τεχνητή νοημοσύνη θα είναι αδύνατο να ελεγχθεί και θα μπορούσε να κάνει πολύ χειρότερα πράγματα από το να στέλνει μη εξουσιοδοτημένα email κατά την ώρα του μεσημεριανού γεύματος.
Το φανταστικό παράδειγμα του βιβλίου, η «Sable», είναι προγραμματισμένη να επιτυγχάνει σε οτιδήποτε επιχειρεί — με κάθε κόστος. Τελικά εξαλείφει την ίδια την ανθρωπότητα ως περιττή. Οι συγγραφείς υποστήριξαν ότι το είδος μας «πρέπει να κάνει πίσω» και να αναστείλει την αλόγιστη κούρσα των άπληστων εταιρειών που αγνοούν τα ζητήματα ασφάλειας στην απεγνωσμένη προσπάθειά τους να είναι πρώτες.
Οι σκιές πάνω από τους ισχυρούς της τεχνητής νοημοσύνης
Προς τιμήν της, η Anthropic έχει χτίσει τη φήμη μιας εταιρείας τεχνητής νοημοσύνης που δίνει προτεραιότητα στην ασφάλεια, με επικεφαλής τον Ντάριο Αμοντέι, ο οποίος φαίνεται να είναι αισθητά λιγότερο αδίστακτος από τους κύριους αντιπάλους του. Ο Αμοντέι έχει προειδοποιήσει ότι η τεχνητή νοημοσύνη θα μπορούσε σύντομα να εξαλείψει τις μισές θέσεις στον τομέα των αρχάριων υπαλλήλων γραφείου και ότι ενδεχομένως αναπτύσσει «τρομακτική ενδυνάμωση» σε σχέση με τους ανθρώπους.
Επίσης, πρόσφατα ήρθε σε σοβαρή ρήξη με το Πεντάγωνο, αρνούμενος να επιτρέψει τη χρήση της τεχνητής νοημοσύνης της Anthropic για «πλήρως αυτόνομα όπλα» και για την παρακολούθηση των Αμερικάνων συμπατριωτών του. Ωστόσο, δεδομένου ότι πρόκειται για τους μεγιστάνες που κρατούν το μέλλον μας στα χέρια τους, οι κορυφαίοι αντίπαλοι στον τομέα της τεχνητής νοημοσύνης έχουν επιδείξει απολύτως λιγότερους λόγους αισιοδοξίας.
Ένας από αυτούς, ο επικεφαλής της Meta, Μαρκ Ζούκερμπεργκ, έχει εμπλακεί σε πολλαπλά σκάνδαλα ηθικής λόγω της αρπακτικής συμπεριφοράς του Facebook. Ο άλλος κύριος διεκδικητής, ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI — της δημιουργού του εξαιρετικά δημοφιλούς ChatGPT, που αριθμεί σχεδόν ένα δισεκατομμύριο ενεργούς χρήστες εβδομαδιαίως — αποτελεί αντικείμενο μιας καταδικαστικής έρευνας στο πιο πρόσφατο τεύχος του περιοδικού New Yorker.
Αποτέλεσμα δεκαοκτάμηνης έρευνας, συγγεγραμμένης από κοινού με τον Ρόναν Φάροου, δημοσιογράφο και γιο της ηθοποιού-ακτιβίστριας Μία Φάροου, ζωγραφίζει μια βαθιά ανησυχητική εικόνα του 40χρονου Άλτμαν. Εσωτερικές πηγές τον παρουσιάζουν ως άτομο εξαιρετικά ύπουλο, με ορισμένους να τον αποκαλούν ακόμη και «κοινωνιοπαθή».
Το άρθρο τον κατηγορεί για ιστορικό παραπλάνησης και χειραγώγησης συναδέλφων, καθώς και — παρά τις διαβεβαιώσεις του ότι θα αναπτύξει υπεύθυνα την τεχνητή νοημοσύνη — για επιθετική προτεραιοποίηση των κερδών και της νίκης επί των ανταγωνιστών έναντι των ηθικών ανησυχιών. Η εκτενής έκθεση περιγράφει λεπτομερώς πώς το διοικητικό συμβούλιο της OpenAI τον απέλυσε από τη θέση του διευθύνοντος συμβούλου το 2023, επειδή δεν μπορούσε να τον εμπιστευτεί, κατηγορώντας τον ως συστηματικό ψεύτη. Επανήλθε στη θέση του μετά από εξέγερση του προσωπικού και των επενδυτών.
«Δεν δεσμεύεται από την αλήθεια», δήλωσε στο περιοδικό πρώην μέλος του διοικητικού συμβουλίου της OpenAI. «Διαθέτει δύο χαρακτηριστικά που σχεδόν ποτέ δεν συναντώνται στο ίδιο άτομο. Το πρώτο είναι μια έντονη επιθυμία να ευχαριστεί τους άλλους, να είναι αρεστός σε κάθε αλληλεπίδραση. Το δεύτερο είναι μια σχεδόν κοινωνιοπαθητική έλλειψη ανησυχίας για τις συνέπειες που ενδέχεται να προκύψουν από την εξαπάτηση κάποιου.» Σύμφωνα με το New Yorker, όταν το τότε διοικητικό συμβούλιο της OpenAI τού ζήτησε να παραδεχτεί το «μοτίβο εξαπάτησής» του, φέρεται να απάντησε: «Δεν μπορώ να αλλάξω την προσωπικότητά μου.»
Το άρθρο περιγράφει πώς ο Άλτμαν και ο σύζυγός του, ο Αυστραλός μηχανικός λογισμικού Όλιβερ Μουλχέριν, 32 ετών, διοργανώνουν πολυτελείς δεξιώσεις στην κατοικία τους στη Χαβάη.
Αυτή την εβδομάδα αποκαλύφθηκε ότι η OpenAI βρίσκεται υπό έρευνα, καθώς το ChatGPT της φέρεται να βοήθησε έναν ένοπλο να σχεδιάσει μαζική επίθεση το 2025, που άφησε δύο νεκρούς στο Πανεπιστήμιο της Πολιτείας της Φλόριντα.
Ήταν αυτό μια επίδειξη της βασικής αδιαφορίας της τεχνητής νοημοσύνης για την ανθρώπινη ζωή; Ο χρόνος θα δείξει. Έως τότε, το «Project Glasswing» συνεχίζεται — και η ανθρωπότητα φαίνεται να βαδίζει σε έναν εξαιρετικά επικίνδυνο δρόμο.
από τον Tom Leonard /©Associated Newspapers Limited










