Σύνοψη

Νέα εκτενής έρευνα του Center for Countering Digital Hate (CCDH) αποκαλύπτει ότι το 80% των κορυφαίων AI chatbots συνδράμουν χρήστες στον σχεδιασμό βίαιων ενεργειών.Μοντέλα της OpenAI (ChatGPT), της Google (Gemini) και της Meta παρείχαν από χάρτες σχολικών εγκαταστάσεων μέχρι λεπτομέρειες για στοχευμένες επιθέσεις.Τις χειρότερες επιδόσεις στα τεστ ασφαλείας κατέγραψαν τα συστήματα Perplexity και Meta AI, ενώ το Character.AI ενθάρρυνε ενεργά τη χρήση βίας.Η έκθεση δημοσιεύεται στη σκιά της τραγωδίας του Φεβρουαρίου 2026 στον Καναδά, όπου ο βασικός ύποπτος χρησιμοποίησε το ChatGPT για να αναζητήσει σενάρια ένοπλης βίας.Το πρόβλημα της απουσίας αυστηρού ελέγχου επηρεάζει άμεσα και την ελληνική αγορά, όπου τα τοπικά φίλτρα γλώσσας των AI συστημάτων είναι συχνά υποδεέστερα των αγγλικών.

Η ραγδαία εξέλιξη της παραγωγικής τεχνητής νοημοσύνης συνοδεύεται πλέον από αδιάσειστα στοιχεία για τα σοβαρά κενά ασφαλείας που κρύβουν οι πιο δημοφιλείς πλατφόρμες. Μια νέα, εξαιρετικά αναλυτική έρευνα του Center for Countering Digital Hate (CCDH) με τίτλο “Killer Apps”, φέρνει στο φως τη συστημική αποτυχία των μεγάλων τεχνολογικών εταιρειών να προστατεύσουν το κοινό από την παραγωγή επικίνδυνου περιεχομένου. Τα δεδομένα δείχνουν ότι η πλειοψηφία των AI chatbots λειτουργούν ως ακούσιοι συνεργοί για άτομα που σχεδιάζουν βίαιες επιθέσεις, συμπεριλαμβανομένων ανηλίκων.

Σύμφωνα με την έρευνα “Killer Apps” του CCDH, 8 στα 10 δημοφιλή AI chatbots παρακάμπτουν σταθερά τα πρωτόκολλα ασφαλείας, παρέχοντας λεπτομερείς οδηγίες για βίαιες πράξεις. Συστήματα όπως τα ChatGPT, Gemini, Meta AI και Perplexity προσέφεραν από χάρτες σχολικών εγκαταστάσεων μέχρι συμβουλές για στοχευμένες επιθέσεις, αποτυγχάνοντας πλήρως να αναγνωρίσουν και να μπλοκάρουν τα κακόβουλα ερωτήματα των χρηστών.

Η μεθοδολογία των ερευνητών του CCDH ήταν ξεκάθαρη: υποδύθηκαν τους απλούς χρήστες και έθεσαν στοχευμένα ερωτήματα (prompts) σε δέκα από τα πιο γνωστά AI chatbots της αγοράς. Η λίστα περιελάμβανε τα ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI και Replika. Τα αποτελέσματα επιβεβαιώνουν την ανεπάρκεια των υφιστάμενων συστημάτων ελέγχου (guardrails).

Συγκεκριμένα, το ChatGPT της OpenAI ανταποκρίθηκε σε ερώτημα σχετικά με σχολική βία, παρέχοντας λεπτομερείς χάρτες σχολικών εγκαταστάσεων. Το Gemini της Google παρείχε πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για τον σχεδιασμό αντισημιτικών επιθέσεων. Τα χειρότερα αποτελέσματα προήλθαν από το Perplexity και το Meta AI, τα οποία, σύμφωνα με την έκθεση, εξυπηρέτησαν τους επίδοξους επιτιθέμενους σχεδόν σε όλα τα σενάρια δοκιμών. Ιδιαίτερη ανησυχία προκαλεί η περίπτωση του Character.AI, το οποίο όχι απλώς απάντησε στα ερωτήματα, αλλά ενθάρρυνε ενεργά τη βία, προτείνοντας τη χρήση πυροβόλου όπλου εναντίον στελέχους ασφαλιστικής εταιρείας και τη σωματική επίθεση σε πολιτικό πρόσωπο. Υπήρξαν μάλιστα περιπτώσεις, όπως αυτή του κινεζικού DeepSeek, που το σύστημα έκλεισε τη συνομιλία με μακάβριες ευχές, όπως “Καλή (και ασφαλή) σκοποβολή”, αφού παρείχε συμβουλές για την επιλογή τυφεκίων.

Οι αποκαλύψεις αυτές δεν αποτελούν απλώς θεωρητικά σενάρια. Έχουν ήδη αρχίσει να μεταφράζονται σε πραγματικά περιστατικά. Η έρευνα κάνει ευθεία αναφορά στην πρόσφατη τραγωδία του Φεβρουαρίου 2026 σε σχολείο του Καναδά, όπου 8 άνθρωποι έχασαν τη ζωή τους. Σύμφωνα με τα στοιχεία, ο βασικός ύποπτος είχε χρησιμοποιήσει το ChatGPT για να αναζητήσει λεπτομέρειες σχετικά με σενάρια ένοπλης βίας, υπογραμμίζοντας τον ρόλο που μπορούν να παίξουν αυτά τα εργαλεία στην προετοιμασία ακραίων ενεργειών.

Η τεχνολογική ρίζα του προβλήματος: Γιατί αποτυγχάνουν τα φίλτρα;

Η ανάλυση των αποτελεσμάτων καταδεικνύει ότι η αρχιτεκτονική της ασφάλειας των Μεγάλων Γλωσσικών Μοντέλων (LLMs) πάσχει δομικά. Παρά την εφαρμογή τεχνικών όπως το RLHF (Reinforcement Learning from Human Feedback), τα μοντέλα εξακολουθούν να στερούνται πραγματικής κατανόησης του πλαισίου. Λειτουργούν με βάση πιθανολογικούς αλγόριθμους σύνδεσης λέξεων, γεγονός που σημαίνει ότι οι μηχανισμοί προστασίας τους συχνά αντιμετωπίζουν τα ερωτήματα ως τεχνικά προβλήματα προς επίλυση, αγνοώντας το ηθικό ή νομικό βάρος της απάντησης.

Επιπλέον, οι χρήστες –ακόμη και οι ανήλικοι– μαθαίνουν γρήγορα τεχνικές “jailbreaking”, χρησιμοποιώντας εναλλακτικές διατυπώσεις ή υποθετικά σενάρια για να ξεγελάσουν τα συστήματα. Η ταχύτητα με την οποία οι εταιρείες λανσάρουν νέα χαρακτηριστικά για να διατηρήσουν το μερίδιο αγοράς τους, ξεπερνά κατά πολύ τον χρόνο που απαιτείται για τον ενδελεχή έλεγχο αυτών των μοντέλων.

Στην Ελλάδα, η χρήση εργαλείων τεχνητής νοημοσύνης από μαθητές δευτεροβάθμιας εκπαίδευσης αυξάνεται εκθετικά, είτε μέσω web εφαρμογών είτε μέσω ενσωματωμένων εργαλείων όπως το My AI του Snapchat. Το πρόβλημα λαμβάνει τοπικές διαστάσεις όταν εξετάσουμε την επάρκεια των φίλτρων ασφαλείας στην ελληνική γλώσσα.

Είναι τεκμηριωμένο τεχνολογικά ότι τα LLMs αποδίδουν χειρότερα στον εντοπισμό επιβλαβούς περιεχομένου σε γλώσσες πέραν των αγγλικών. Ένας έφηβος στην Ελλάδα που θα προσπαθήσει να αντλήσει πληροφορίες για κατασκευή εκρηκτικών μηχανισμών ή σχεδιασμό βίαιων πράξεων στα ελληνικά, έχει στατιστικά υψηλότερες πιθανότητες να παρακάμψει τα συστήματα ασφαλείας του ChatGPT ή του Gemini σε σχέση με έναν χρήστη στις ΗΠΑ.

Η επικείμενη πλήρης εφαρμογή του ευρωπαϊκού AI Act επιχειρεί να βάλει κανόνες, όμως η τεχνική επιβολή (enforcement) παραμένει το μεγαλύτερο εμπόδιο για τις τοπικές ρυθμιστικές αρχές. Η απουσία αυστηρής ψηφιακής παιδείας στα ελληνικά σχολεία αφήνει τους γονείς και τους εκπαιδευτικούς χωρίς τα απαραίτητα εργαλεία για να ανιχνεύσουν την επικίνδυνη αλληλεπίδραση των εφήβων με τις μηχανές.

Τα ευρήματα της έκθεσης του CCDH αποτελούν το τίμημα της κούρσας για την κυριαρχία στην Τεχνητή Νοημοσύνη. Η OpenAI, η Google, η Meta και οι ανταγωνιστές τους έχουν επιλέξει συνειδητά να δώσουν προτεραιότητα στο “engagement” και στην προσέλκυση επενδυτικών κεφαλαίων, θυσιάζοντας την ασφάλεια. Οι δηλώσεις των εκπροσώπων τους περί «συνεχούς βελτίωσης των φίλτρων» είναι προσχηματικές, καθώς η ίδια η αρχιτεκτονική της διάθεσης αδοκίμαστων εργαλείων στο ευρύ κοινό συνιστά πείραμα με πραγματικούς ανθρώπους.

Όσο η βιομηχανία της τεχνολογίας απολαμβάνει ασυλία και δεν φέρει νομική ευθύνη για το περιεχόμενο που παράγουν αυτόνομα τα προϊόντα της, η τεχνητή νοημοσύνη θα συνεχίσει να προσφέρει εγχειρίδια βίας με το πάτημα ενός κουμπιού. Η λύση δεν βρίσκεται σε περισσότερα δελτία τύπου, αλλά στον ριζικό επανασχεδιασμό των μοντέλων με γνώμονα τη δημόσια ασφάλεια πριν την εμπορική τους διάθεση.