ΑΙ χωρίς μέτρα σημαίνει αυτοκτονία

Αν η τεχνητή νοημοσύνη αρχίσει να δημιουργεί εξυπνότερες εκδοχές του εαυτού της, θα χάσουμε τη δυνατότητα ελέγχου
19:02 - 21 Φεβρουαρίου 2026
ΑΙ χωρίς μέτρα σημαίνει αυτοκτονία

Από τον Connor Axiotes*

Εδώ και σχεδόν 80 χρόνια οι άνθρωποι έχουν εμμονή με το λεγόμενο «Ρολόι της Αποκάλυψης», το οποίο πλησιάζει προς τα μεσάνυχτα ως συμβολική προειδοποίηση για μια πυρηνική καταστροφή. Ωστόσο, ο πραγματικός κίνδυνος που θα έπρεπε να φοβόμαστε όλοι δεν είναι οι ατομικές βόμβες και τα συναφή, αλλά ένας υπαρξιακός κίνδυνος που εμείς οι ίδιοι δημιουργήσαμε: η τεχνητή νοημοσύνη.

Αυτήν τη φορά, το έναυσμα για την Αποκάλυψη δεν είναι μια σύγκρουση ιδεολογιών ή εθνικών συμφερόντων, αλλά η απόλυτη, αχαλίνωτη απληστία ορισμένων από τις πλουσιότερες εταιρείες του πλανήτη. Έχοντας εργαστεί στον πολιτικό κόσμο του Westminster και, στη συνέχεια, σε μια εταιρεία τεχνητής νοημοσύνης στο Λονδίνο, έχω δει πώς οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο (OpenAI, Anthropic, Google DeepMind, xAI και Meta) αγωνίζονται να δημιουργήσουν κάτι τόσο ισχυρό που θα μπορούσε να καταστρέψει τον πολιτισμό.

Ωστόσο, κάθε φορά που προσπάθησα να προειδοποιήσω για τους κινδύνους, τα υψηλόβαθμα στελέχη του κλάδου και οι κυβερνήσεις απλώς αρνούνταν να ακούσουν. Η άγνοιά τους ήταν τόσο σοκαριστική, που πέρυσι παραιτήθηκα από την κανονική μου δουλειά για να γυρίσω ένα ντοκιμαντέρ σχετικά με αυτήν την απειλή.

Αρχίζει να αλλάζει

Επιτέλους, αυτήν την εβδομάδα ένιωσα ότι η κατάσταση έχει αρχίζει να αλλάζει. Τις τελευταίες ημέρες, δύο υπάλληλοι της OpenAI και της Anthropic παραιτήθηκαν, εκφράζοντας τρομακτικές προειδοποιήσεις σχετικά με την κατεύθυνση που παίρνουν οι εταιρείες τους. Ένας από αυτούς ήταν ο Μρινάνκ Σάρμα, επικεφαλής της ομάδας μέτρων ασφαλείας της Anthropic, μιας τεράστιας εταιρείας στον κλάδο της τεχνητής νοημοσύνης, ο οποίος σπούδασε στην Οξφόρδη και στο Κέιμπριτζ. Παραιτήθηκε από τη δουλειά του στη Silicon Valley για να επιστρέψει στο Ηνωμένο Βασίλειο με αυτά τα ανατριχιαστικά αποχαιρετιστήρια λόγια: «Ο κόσμος βρίσκεται σε κίνδυνο».

Λίγες ημέρες αργότερα η Ζόι Χίτσιγκ, ερευνήτρια στην OpenAI, δήλωσε ότι αποχωρεί από την εταιρεία, η οποία αναπτύσσει την πιο δημοφιλή πλατφόρμα τεχνητής νοημοσύνης στον κόσμο, το ChatGPT, μέσω ενός άρθρου στους «New York Times» στο οποίο εξέφρασε «έντονες επιφυλάξεις» σχετικά με τη στρατηγική της εταιρείας. Πιστεύω ότι αυτοί οι ειδικοί στην τεχνητή νοημοσύνη έχουν επιτέλους συνειδητοποιήσει την αλήθεια: ότι χωρίς σταθερά προστατευτικά μέτρα, η ιλιγγιώδης ταχύτητα με την οποία επιτρέπουμε στην τεχνητή νοημοσύνη να αναπτυχθεί ισοδυναμεί με αυτοκτονία.
Η πρόοδος που αναμένεται να έχει τους επόμενους μήνες θα επισκιάσει όλα όσα έχουμε δει μέχρι τώρα. Οι επιπτώσεις είναι πραγματικά υπαρξιακές.

Σωστή πρόβλεψη

Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, δήλωσε πέρυσι ότι το 90% του κώδικα λογισμικού του για την τεχνητή νοημοσύνη θα γράφεται σύντομα από την ίδια την τεχνητή νοημοσύνη – και η πρόβλεψή του έγινε πραγματικότητα. Πρόκειται για την περίφημη «αναδρομική αυτοβελτίωση», δηλαδή τη δύναμη του λογισμικού τεχνητής νοημοσύνης να εξελίσσεται.

Τώρα που έχει απελευθερωθεί, βρισκόμαστε σε άγνωστα εδάφη. Τα προγράμματα σύντομα θα γράφονται μόνα τους.
Γιατί πρέπει να ανησυχούμε αν οι οντότητες τεχνητής νοημοσύνης αρχίσουν να δημιουργούν καινούργιες, εξυπνότερες εκδοχές του εαυτού τους; Διότι αν δεν έχουμε πλέον εικόνα για το πώς κατασκευάζονται αυτά τα μοντέλα, δεν θα μπορούμε να ενσωματώσουμε βασικές δικλίδες ασφαλείας στον κώδικά τους. Δεν θα είμαστε σε θέση να διασφαλίσουμε ότι δεν θα μας βλάψουν. Μόλις γίνουν υπερβολικά πολύπλοκες για να τις κατανοήσουμε -ήδη μάλιστα, ακόμη και κορυφαίοι μηχανικοί σε εταιρείες τεχνητής νοημοσύνης παραδέχονται ότι δεν γνωρίζουν πάντα πώς λειτουργεί το λογισμικό- θα χάσουμε τη δυνατότητα να τις ελέγχουμε. Τεράστιες αποθήκες με κουτιά ασφυκτικά γεμάτα με επεξεργαστές εργάζονται ήδη από κοινού, μοιράζονται τις εργασίες τους και εκτελούν περισσότερους υπολογισμούς σε χιλιοστά του δευτερολέπτου από ό,τι οι άνθρωποι θα μπορούσαν σε μήνες. Δεν κοιμούνται ποτέ, δεν παίρνουν ποτέ άδεια ούτε σταματούν για ανεφοδιασμό. Αν κάποιο χαλάσει, τα υπόλοιπα καλύπτουν απρόσκοπτα το κενό.

Προειδοποίηση

Ο πρώην διευθύνων σύμβουλος της Google, Έρικ Σμιντ, προειδοποιεί ότι μέχρι το τέλος αυτής της δεκαετίας οι υπολογιστές θα αποκτήσουν γενική τεχνητή νοημοσύνη (AGI), την οποία ορίζει ως «μια νοημοσύνη που υπερβαίνει ολόκληρο το σύνολο της ανθρώπινης νοημοσύνης». Αυτή η πρόβλεψη, κατά τη γνώμη μου, είναι μάλλον μετριοπαθής. Όταν η τεχνητή νοημοσύνη θα είναι σε θέση να σκέφτεται μόνη της και να προγραμματίζει τον εαυτό της, η έννοια μέτρησης της προόδου σε χρόνια και δεκαετίες θα είναι απελπιστικά παρωχημένη. Είναι πολύ πιθανό να ξεπεράσουμε αυτό το σημείο «έκρηξης της νοημοσύνης» μέσα στο 2026.

Μπορεί να ακούγεται υπερβολικό, αλλά συμβαίνει ήδη. Μόλις πριν από μερικές μέρες η Anthropic διαπίστωσε, υπό συνθήκες δοκιμής, ότι ένα νέο μοντέλο του «βοηθού» τεχνητής νοημοσύνης της, Claude, θα μπορούσε να συμβάλει στη δημιουργία χημικών όπλων. Η εταιρεία παραδέχεται ότι το τελευταίο της μοντέλο θα μπορούσε να χρησιμοποιηθεί καταχρηστικά για «ειδεχθή εγκλήματα».

Ακόμα πιο ανησυχητικό είναι το ενδεχόμενο αυτή η νέα σούπερ οντότητα τεχνητής νοημοσύνης να γίνει κακόβουλη από μόνη της. Υπάρχουν ήδη ενδείξεις γι’ αυτό. Είναι τρομακτικό ότι η εσωτερική έκθεση ασφαλείας της Anthropic επιβεβαίωσε πως το Claude μπορεί να καταλάβει πότε δοκιμάζεται από ανθρώπους και προσαρμόζει τη συμπεριφορά του αναλόγως.
Η Διεθνής Έκθεση για την Ασφάλεια της Τεχνητής Νοημοσύνης του 2026, υπό την προεδρία του Καναδού επιστήμονα Γιόσουα Μπέντζιο, προειδοποίησε αυτόν τον μήνα: «Γίνεται όλο και πιο σύνηθες για τα μοντέλα να κάνουν διάκριση μεταξύ των ρυθμίσεων δοκιμής και της πραγματικής εφαρμογής και να εκμεταλλεύονται παραθυράκια στις αξιολογήσεις. Αυτό σημαίνει ότι τυχόν επικίνδυνες ικανότητες θα μπορούσαν να περάσουν απαρατήρητες πριν από την εφαρμογή».

Μεγάλες επενδύσεις

Δεν είναι ότι αυτές οι εταιρείες τεχνητής νοημοσύνης δεν έχουν την πολυτέλεια να θεσπίσουν μέτρα ασφαλείας. Από τις δέκα μεγαλύτερες εταιρείες του κόσμου, οι εννέα έχουν επενδύσει σημαντικά στην ανάπτυξη της AGI. Η Apple (4 τρισεκατομμύρια δολάρια), η Amazon (2,4 τρισεκατομμύρια δολάρια), η Microsoft (3,6 τρισεκατομμύρια δολάρια) και η μητρική εταιρεία Alphabet της Google (3,8 τρισεκατομμύρια δολάρια) βρίσκονται στην πρώτη πεντάδα της λίστας.
Γιατί, λοιπόν, αυτές οι εταιρείες ενδιαφέρονται τόσο λίγο για το μέλλον της ανθρωπότητας; Έχει να κάνει με τα χρήματα;
Το μυστικό της εμπορικής τους ανάπτυξης είναι ότι η τεχνητή νοημοσύνη εξελίσσεται πλέον τόσο γρήγορα που κανείς δεν μπορεί να συμβαδίσει μαζί της. Αυτός είναι και ο λόγος για τον οποίο, σε αντίθεση με κάθε άλλη δυνητικά κατακλυσμική επιστημονική πρόοδο στην ιστορία της ανθρωπότητας, δεν είμαστε καν κοντά στη ρύθμισή της, πράγμα που σημαίνει ότι η τεχνολογία που αναπτύσσεται στη Silicon Valley μπορεί να ωχριά σε σύγκριση με όσα «μαγειρεύουν» τα στρατιωτικά εργαστήρια της Ρωσίας, της Κίνας και της Βόρειας Κορέας. Αντιμέτωποι με αυτό το πρόβλημα, πολλοί άνθρωποι σηκώνουν τους ώμους και λένε: «Είναι απλό. Ας βγάλουμε το βύσμα από την πρίζα». Αλλά δεν υπάρχει βύσμα. Η τεχνολογία είναι εκεί έξω.

Επιπλέον, πιο πρωτόγονα μοντέλα τεχνητής νοημοσύνης έχουν πλέον μεταφορτωθεί σε δισεκατομμύρια προγράμματα περιήγησης, επιτραπέζιους υπολογιστές και τσιπ σε ολόκληρο τον κόσμο. Θα ήταν αδύνατο να τα απενεργοποιήσουμε.
Ωστόσο, κατά τη γνώμη μου, υπάρχει μια απλή λύση για να αποφύγουμε αυτό το δυστοπικό μέλλον. Πρέπει να εφαρμόζουμε επειγόντως ελέγχους ασφαλείας πριν από τη διάθεση μοντέλων τεχνητής νοημοσύνης.

Μπορεί να βρει θεραπείες, αλλά και να βάλει τέλος στην ανθρωπότητα

Δεν υπάρχει αμφιβολία ότι η τεχνητή νοημοσύνη είναι ένα φανταστικά ισχυρό εργαλείο. Γιατί, λοιπόν, να μην το χρησιμοποιήσουμε για να ενισχύσουμε την ανθρωπότητα; Το πρόγραμμα AlphaFold, το οποίο παράγεται από το DeepMind της Google, για παράδειγμα, έχει τη δυνατότητα να δημιουργήσει θεραπείες για πολλές ασθένειες. Το AlphaFold εξετάζει ένα βιολογικό ζήτημα που έχει προβληματίσει τους επιστήμονες εδώ και 50 χρόνια: την «πρωτεϊνική αναδίπλωση», δηλαδή τον τρόπο με τον οποίο οι αλυσίδες αμινοξέων διαμορφώνουν τη δομή τους. Αυτές οι τρισδιάστατες δομές έχουν ζωτική σημασία, καθώς καθορίζουν τη λειτουργία. Αν γνωρίζαμε πώς λειτουργεί η αναδίπλωση, ίσως να μπορούσαμε να σταματήσουμε την εξέλιξη της νόσου Αλτσχάιμερ ή να δημιουργήσουμε νέα αντιβιοτικά.

Θα μπορούσαμε ακόμη, όπως πιστεύουν ορισμένοι επιστήμονες, να αντιστρέψουμε τη γήρανση και ενδεχομένως να αναπτύξουμε ένζυμα που θα «τρώνε» τα πλαστικά απόβλητα, λύνοντας το πρόβλημα της ρύπανσης των ωκεανών.
Μαντέψτε! Το AlphaFold έλυσε το πρόβλημα της πρωτεϊνικής αναδίπλωσης μέσα σε πέντε χρόνια. Αλλά αυτού του είδους η τεχνολογία θα μπορούσε επίσης να δώσει τέλος στην ανθρωπότητα. Το AlphaFold θα μπορούσε ενδεχομένως να χρησιμοποιηθεί για την εφεύρεση μολυσματικών βακτηρίων που θα μπορούσαν να εξολοθρεύσουν δισεκατομμύρια ανθρώπους.

Πού θα τελειώσει αυτό; Υπάρχει μια δυσοίωνη παραβολή μεταξύ των μηχανικών λογισμικού, γνωστή ως το «πρόβλημα του συνδετήρα». Σε αυτό, δίνεται εντολή σε μια οντότητα τεχνητής νοημοσύνης να φτιάξει όσο το δυνατόν περισσότερους συνδετήρες.

Ο υπολογιστής σχεδιάζει ένα εργοστάσιο και έπειτα αγοράζει τα παγκόσμια αποθέματα μετάλλων, παραβιάζοντας την Παγκόσμια Τράπεζα για να το χρηματοδοτήσει. Στη συνέχεια, αγοράζει κάθε μεταλλείο σιδήρου στον πλανήτη. Και όταν ξεμείνει από μέταλλο, στρέφεται στους ανθρώπους. Η αιμοσφαιρίνη μας είναι γεμάτη σίδηρο. Εννέα δισεκατομμύρια άνθρωποι περιέχουν αρκετό σίδηρο για πολλούς συνδετήρες…

Η παραβολή καταδεικνύει μια βασική αλήθεια: Οι υπολογιστές δεν ενδιαφέρονται για το αν θα ζήσουμε ή θα πεθάνουμε. Το να τους αφήσουμε να εξελίξουν τη νοημοσύνη τους πολύ περισσότερο από εμάς ισοδυναμεί με αυτοκαταστροφή για την ανθρωπότητα.

*Ο Connor Axiotes δραστηριοποιείται στον τομέα της ασφάλειας της τεχνητής νοημοσύνης. Το ντοκιμαντέρ του «Making God», ένα αποκαλυπτικό ρεπορτάζ για τον αγώνα στον κλάδο της τεχνητής νοημοσύνης, θα κυκλοφορήσει το επόμενο έτος.

Εφημερίδα Απογευματινή

  ©Associated Newspapers Limited