Ερευνητές του MIT κρούουν τον κώδωνα του κινδύνου για τους αυτόνομους AI Agents, αποκαλύπτοντας ότι αυτές οι νέες μορφές Τεχνητής Νοημοσύνης λειτουργούν στο διαδίκτυο με σοβαρά κενά ασφαλείας, καθιστώντας τα δεδομένα των χρηστών εξαιρετικά ευάλωτα σε επιθέσεις.
Η βιομηχανία της τεχνολογίας έχει ήδη προχωρήσει πέρα από τα απλά chatbots που γράφουν κείμενα. Το νέο μεγάλο στοίχημα είναι οι “AI Agents” – έξυπνα προγράμματα που μπορούν να πάρουν πρωτοβουλίες, να πλοηγηθούν στο διαδίκτυο, να διαβάσουν τα emails σας και να κάνουν αγορές εκ μέρους σας. Ωστόσο, μια νέα έρευνα από το MIT έρχεται να φρενάρει τον ενθουσιασμό, επισημαίνοντας τεράστια κενά ασφαλείας.
Σύμφωνα με αυτήν, οι αυτόνομοι πράκτορες τεχνητής νοημοσύνης (AI Agents), οι οποίοι εκτελούν εργασίες όπως αγορές ή διαχείριση δεδομένων στο διαδίκτυο, λειτουργούν με ελάχιστα έως ανύπαρκτα πρωτόκολλα ασφαλείας. Αυτό τους καθιστά ευάλωτους σε παραβιάσεις και επικίνδυνους για τα προσωπικά δεδομένα των χρηστών, καθώς μπορούν να ξεγελαστούν και να εκτελέσουν κακόβουλες ενέργειες.
Οι ερευνητές του MIT διαπίστωσαν ότι τα περισσότερα από τα διαθέσιμα frameworks για τη δημιουργία τέτοιων πρακτόρων εστιάζουν αποκλειστικά στην “αποδοτικότητα” της εργασίας και αγνοούν τις δικλείδες ασφαλείας. Σε δοκιμές που πραγματοποίησαν, μπόρεσαν εύκολα να εφαρμόσουν τεχνικές “prompt injection”. Με απλά λόγια, κατάφεραν να “μπερδέψουν” τον πράκτορα, δίνοντάς του κρυφές οδηγίες μέσα από μια ιστοσελίδα, αναγκάζοντάς τον να διαρρεύσει ευαίσθητες πληροφορίες του χρήστη (όπως στοιχεία κάρτας) σε τρίτους.
Το πρόβλημα έγκειται στο γεγονός ότι οι agents αυτοί έχουν συχνά πρόσβαση σε πραγματικά εργαλεία (APIs, web browsers, τραπεζικούς λογαριασμούς). Σε αντίθεση με το ChatGPT, το οποίο απλώς θα παράγει μια λανθασμένη απάντηση αν έχεις «παραισθήσεις», ένας AI Agent μπορεί να μεταφέρει χρήματα ή να διαγράψει βάσεις δεδομένων.
Στην Ελλάδα, πολλές επιχειρήσεις ενσωματώνουν γρήγορα λύσεις AI για την εξυπηρέτηση πελατών (customer support) ή την αυτοματοποίηση διαδικασιών. Το συμπέρασμα του MIT πρέπει να διαβαστεί ως κατεπείγουσα προειδοποίηση. Η ανάπτυξη AI Agents δεν μπορεί να γίνεται επιφανειακά. Απαιτείται αυστηρός έλεγχος και περιορισμός δικαιωμάτων στον κώδικα, πριν συνδέσουμε την τραπεζική μας κάρτα στην πρώτη εντυπωσιακή AI εφαρμογή που θα κυκλοφορήσει.
