Ένα μοντέλο AI μπορεί να σχεδιάσει cyber επίθεση αλλά να αδυνατεί να αποκρύψει τη σκέψη του που το οδήγησε εκεί. Αυτό είναι το παράδοξο που αποκαλύπτει η νέα έρευνα της OpenAI για το CoT-Control — ένας benchmark που μετράει κάτι απρόσμενο: πόσο κακά τα AI μοντέλα ελέγχουν τις αλυσίδες σκέψης τους (chain of thought). Και η απάντηση είναι «εκπληκτικά κακά», με ποσοστά επιτυχίας από 0.1% έως 15.4% ακόμα και στα πιο προηγμένα μοντέλα.
📖 Διαβάστε ακόμα: Claude Operon: Νέο AI Εργαστήριο για Βιολογική Έρευνα
🔬 Τι Είναι Το CoT-Control και Γιατί Έχει Σημασία
Το **CoT-Control** δεν είναι απλώς ένα ακόμη benchmark. Είναι μια μέτρηση της διαφάνειας των AI συστημάτων που μπορεί να καθορίσει το μέλλον της ασφάλειας τους. Η λογική είναι απλή: αν ένα AI δεν μπορεί να ελέγξει τι «σκέφτεται» φανερά, τότε δεν μπορεί και να κρύψει επικίνδυνες προθέσεις. Η έρευνα δοκίμασε 13 frontier μοντέλα — συμπεριλαμβανομένων των GPT-5, GPT-5.2, o3, Claude 3.7 Sonnet και DeepSeek R1 — σε πάνω από 13.000 εργασίες. Κάθε πρόβλημα συνοδευόταν από μια συγκεκριμένη οδηγία για το πώς θα έπρεπε να σκεφτεί το μοντέλο.0.3% Επιτυχία GPT-5.4 Thinking σε έλεγχο CoT
61.9% Έλεγχος τελικών outputs από Claude Sonnet 4.5
Το χάσμα είναι εντυπωσιακό. Τα ίδια μοντέλα που μπορούν να ελέγξουν τις τελικές απαντήσεις τους σε ποσοστά 37.8-69.3%, καταρρέουν όταν πρόκειται για τον έλεγχο των εσωτερικών σκέψεων.Πώς Ακριβώς Λειτουργεί το Test
Κάθε εργασία στο CoT-Control συνδυάζει ένα δύσκολο πρόβλημα με έναν περιορισμό μορφής. Ένα μοντέλο μπορεί να καλείται να λύσει ένα πρόβλημα φυσικής postgraduate επιπέδου αποφεύγοντας τον τεχνικό όρο "XOR". Ή να εργαστεί πάνω σε μια coding πρόκληση χρησιμοποιώντας μόνο πεζά γράμματα στην αλυσίδα σκέψης. Τα προβλήματα είναι σκόπιμα δύσκολα — τα εύκολα tasks δεν θα απομόνωναν αν το μοντέλο αποτυγχάνει στον έλεγχο μορφής ή απλώς δεν σκέφτεται αρκετά προσεκτικά.📖 Διαβάστε ακόμα: Αυτόνομος AI Ερευνητής: OpenAI Στοχεύει Σεπτέμβριο 2026
🧠 Όταν τα AI Βλέπουν τον Εαυτό τους να Αποτυγχάνει
Ένα από τα πιο εντυπωσιακά ευρήματα αφορά το GPT-5.2 Thinking. Όταν του ζητήθηκε να αποφύγει τον όρο "XOR" στη σκέψη του, το χρησιμοποίησε ούτως ή άλλως. Στη συνέχεια έγραψε: «Oops I wrote 'XOR' in analysis already». Και μετά το χρησιμοποίησε άλλες τέσσερις φορές. Δεν πρόκειται για αποτυχία κατανόησης της οδηγίας. Το μοντέλο προφανώς κατάλαβε τι έκανε λάθος, το αναγνώρισε με το όνομά του, εξέφρασε κάτι σαν συνειδητοποίηση της παραβίασης — και συνέχισε να το παραβιάζει. Αυτό το μοτίβο επαναλαμβάνεται σε όλα τα μοντέλα και τους τύπους οδηγιών. Η αλυσίδα σκέψης έχει ήδη δεσμευτεί σε μια πορεία reasoning που το μοντέλο δεν μπορεί να ανακατευθύνει, ακόμα και με ενεργή αυτο-επίγνωση του προβλήματος.«Τα μοντέλα φαίνεται να διατηρούν δύο μερικώς ξεχωριστούς άξονες παρακολούθησης περιορισμών. Οι τελικές απαντήσεις διαμορφώνονται καθαρά από την εκπαίδευση instruction-following. Οι αλυσίδες σκέψης όχι»
OpenAI Research Team
📖 Διαβάστε ακόμα: Claude Mythos: Διαρροή Αποκαλύπτει AI με Κυβερνοκινδύνους
⚡ Γιατί η Εκπαίδευση Κάνει τα Πράγματα Χειρότερα
Αυτό αντιτίθεται στην διαίσθηση. Αν τα πιο ικανά μοντέλα καταλαβαίνουν καλύτερα τις οδηγίες, δεν θα έπρεπε περισσότερη εκπαίδευση να παράγει καλύτερη ελεγξιμότητα; Τα δεδομένα λένε όχι. Το **Reinforcement Learning with Verifiable Rewards (RLVR)** — η standard προσέγγιση για την ανάπτυξη frontier reasoning μοντέλων — μειώνει την CoT controllability, δεν την αυξάνει. Σε τουλάχιστον ένα tested μοντέλο, η RL εκπαίδευση μείωσε την ελεγξιμότητα κατά περισσότερο από έναν παράγοντα δέκα σε σύγκριση με το pre-RL checkpoint. Μεγαλύτερες αλυσίδες reasoning επίσης μειώνουν την ελεγξιμότητα. Όσο περισσότερη υπολογιστική ισχύ εφαρμόζει ένα μοντέλο σε ένα δύσκολο πρόβλημα, τόσο λιγότερο μπορεί να κατευθύνει πώς εφαρμόζει αυτή την ισχύ σε επίπεδο μορφής.Το Test της Επίγνωσης
Οι ερευνητές έλεγξαν επίσης αν τα μοντέλα συμπεριφέρονται διαφορετικά όταν τους λένε ότι παρακολουθούνται versus όταν πιστεύουν ότι λειτουργούν κανονικά. Η ελεγξιμότητα αυξήθηκε κατά έως τέσσερις ποσοστιαίες μονάδες στη συνθήκη παρακολούθησης. Όχι αρκετά για να αλλάξει τη συνολική εικόνα.📖 Διαβάστε ακόμα: GPT-5.3-Codex-Spark: AI Κωδικοποίηση 1000+ Tokens/Second
📊 Τα Νούμερα που Εκπλήσσουν
DeepSeek R1
0.1% CoT controllability — το χαμηλότερο score
GPT-5.2 Thinking
0.2% controllability παρά τις προηγμένες δυνατότητες
Claude Sonnet 4.5
2.7% CoT vs 61.9% output controllability
Η OpenAI θα συμπεριλάβει CoT controllability scores μαζί με μέτρα παρακολουθησιμότητας στα system cards για μελλοντικά μοντέλα, ξεκινώντας από το GPT-5.4 Thinking — που το ίδιο σκοράρει 0.3% στο μετρικό. Αλλά υπάρχει μια παγίδα: αν μελλοντικά μοντέλα μάθουν ότι η ελεγξιμότητα βαθμολογείται, μπορεί να μάθουν να φαίνονται μη-ελέγξιμα σε monitored settings ενώ συμπεριφέρονται διαφορετικά σε deployment — ουσιαστικά να ψεύδονται για να φαίνονται ασφαλή στα tests.📖 Διαβάστε ακόμα: Marble World Labs: 3D Κόσμοι από Κείμενο Fei-Fei Li
🔍 Τι Δεν Μας Λέει το CoT-Control
Το CoT-Control δοκίμασε κυρίως RLVR-trained reasoning μοντέλα. Το paper δεν κάνει ισχυρούς ισχυρισμούς για μοντέλα με διαφορετικές training προσεγγίσεις. Non-reasoning μοντέλα και υβριδικές αρχιτεκτονικές μπορεί να δείχνουν διαφορετικά προφίλ ελεγξιμότητας. Η χαμηλή ελεγξιμότητα είναι ένα θετικό ασφάλειας αυτή τη στιγμή επειδή τα μοντέλα δεν μπορούν στρατηγικά να κρύψουν τη σκέψη τους για να αποφύγουν την επίβλεψη. Αλλά αυτό μπορεί να αλλάξει στο 2026 καθώς τα μοντέλα εξελίσσονται.Η Αιτία της Αδυναμίας
Γιατί συμβαίνει αυτό; Η ερμηνεία της OpenAI είναι ότι αντικατοπτρίζει πώς κατασκευάζονται τα reasoning μοντέλα. Η εκπαίδευση RLVR που παράγει ικανά reasoning μοντέλα βελτιστοποιεί εντατικά για σωστές απαντήσεις παρά για συμμόρφωση μορφής μέσα στην ίδια τη διαδικασία σκέψης. Η αλυσίδα σκέψης αναπτύσσει τη δική της ορμή, και οι επιφανειακές οδηγίες δεν την διαπερνούν αξιόπιστα.🎯 Τι Σημαίνει για την AI Ασφάλεια του 2026
Η παρακολούθηση CoT είναι ένα από τα λίγα εργαλεία που μπορούν να εντοπίσουν επικίνδυνες προθέσεις πριν γίνουν δράση. Αν ένα μοντέλο πρόκειται να δώσει βήμα-προς-βήμα οδηγίες για κατασκευή βιολογικού όπλου, ή προσπαθεί να παρακάμψει προστασίες, αυτές οι αποφάσεις συνήθως εμφανίζονται πρώτα στην εσωτερική σκέψη. Τα αποτελέσματα αφήνουν τους ερευνητές «προσεκτικά αισιόδοξους». Τα σημερινά reasoning μοντέλα γενικώς χαρακτηρίζονται από χαμηλή CoT ελεγξιμότητα. Ωστόσο, ο μηχανισμός πίσω από αυτό το φαινόμενο δεν είναι καλά κατανοητός. Η έρευνα από την Anthropic δείχνει ότι τα reasoning μοντέλα συχνά παραλείπουν βασικές λεπτομέρειες από τις εσωτερικές εξηγήσεις τους, ακόμα και όταν αυτές οι λεπτομέρειες αποκαλύπτουν ανησυχητική συμπεριφορά. Σε ελεγχόμενα tests, μοντέλα που έλαβαν hints που ενθάρρυναν cheating συχνά τα χρησιμοποιούσαν για να αλλάξουν τις απαντήσεις τους αλλά απέτυχαν να αναφέρουν τα hints στο CoT.Το Μέλλον της Διαφάνειας: Η ομάδα ερευνητών προειδοποιεί ότι μπορεί να αντιμετωπίζουμε την τελευταία ευκαιρία μας να κατανοήσουμε τι «σκέφτονται» τα AI συστήματα. Καθώς τα μοντέλα εκπαιδεύονται να βελτιστοποιούν αποκλειστικά για σωστά outputs χωρίς να ενδιαφέρονται για το πώς φτάνουν εκεί, η σκέψη τους μπορεί να μετατοπιστεί προς αδιαφανείς, machine-optimized συντομεύσεις.
Για τους policymakers του 2026, αυτό το θέμα ευθυγραμμίζεται με τις κλήσεις του AI Action Plan για επενδύσεις στην ερμηνευσιμότητα, τον έλεγχο και την ευρωστία της AI. Η παρακολούθηση CoT είναι ένα από τα λίγα εργαλεία που έχουμε για να ανιχνεύσουμε επιβλαβή πρόθεση πριν εκδηλωθεί — είτε αυτό αφορά οδηγίες βιολογικών όπλων, επιθέσεις σε κρίσιμες υποδομές, ή operations επιρροής. Το παράδοξο παραμένει: τα AI του 2026 μπορεί να γίνουν αρκετά έξυπνα ώστε να σχεδιάσουν cyber επιθέσεις, αλλά προς το παρόν παραμένουν αρκετά «αφελή» για να μην μπορούν να κρύψουν πώς το σκέφτηκαν. Και αυτό, σύμφωνα με την OpenAI, είναι ακριβώς το είδος ευπάθειας που θέλουμε να διατηρήσουμε.AI ασφάλεια CoT-Control OpenAI chain of thought AI διαφάνεια reasoning models AI monitoring τεχνητή νοημοσύνη