Κολοσσοί των κοινωνικών δικτύων επέτρεψαν συνειδητά την εμφάνιση περισσότερου επιβλαβούς περιεχομένου στις ροές των χρηστών, αφού εσωτερικές έρευνες σχετικά με τους αλγόριθμούς τους έδειξαν ότι η οργή των ανθρώπων ενίσχυε την αλληλεπίδραση και άρα το κέρδος, όπως αποκαλύπτουν μάρτυρες δημοσίου συμφέροντος.

Περισσότεροι από δώδεκα πληροφοριοδότες και εσωτερικοί συνεργάτες των εταιρειών αποκάλυψαν τους τρόπους με τους οποίους οι εταιρείες έθεσαν σε κίνδυνο την ασφάλεια των χρηστών σχετικά με θέματα όπως η βία, ο σεξουαλικός εκβιασμός και η τρομοκρατία, καθώς αγωνίζονταν για την προσοχή των χρηστών.

Ένας μηχανικός της Meta, της εταιρείας που κατέχει το Facebook και το Instagram, περιέγραψε πώς του είχε ζητηθεί από την διοίκηση να επιτρέψει περισσότερο «οριακά» επιβλαβές περιεχόμενο – το οποίο περιλαμβάνει μισογυνισμό και θεωρίες συνωμοσίας – στα feeds των χρηστών, προκειμένου να ανταγωνιστεί το TikTok.

«Μας είπαν, κατά κάποιον τρόπο, ότι αυτό οφείλεται στην πτώση της τιμής της μετοχής», δήλωσε ο μηχανικός.

Διαβάστε επίσης: Social media / Πώς τα σύντομα βίντεο βλάπτουν τους νεαρούς χρήστες

Ένας υπάλληλος του TikTok έδωσε στη BBC πρόσβαση στα εσωτερικά συστήματα της εταιρείας αναφορικά με τις καταγγελίες των χρηστών, καθώς και σε άλλα στοιχεία που αποδεικνύουν ότι το προσωπικό είχε λάβει οδηγίες έτσι ώστε να δώσει προτεραιότητα σε υποθέσεις που αφορούσαν πολιτικούς, έναντι μιας σειράς αναφορών για επιβλαβείς αναρτήσεις, οι οποίες μάλιστα σχετίζονταν με παιδιά.

Οι αποφάσεις λαμβάνονταν με σκοπό τη «διατήρηση ισχυρών σχέσεων» με πολιτικά πρόσωπα, προκειμένου να αποφευχθούν τυχόν απειλές για περισσότερες ρυθμίσεις στην πλατφόρμα ή απαγορεύσεων, και όχι λόγω των κινδύνων για τους χρήστες, δήλωσε ο υπάλληλος της εταιρείας.

Οι πληροφοριοδότες που μίλησαν στο ντοκιμαντέρ του BBC, «Inside the Rage Machine», προσφέρουν συνολικά μια λεπτομερή εικόνα του τρόπου με τον οποίο αντέδρασε ο κλάδος μετά την εκρηκτική ανάπτυξη του TikTok, του οποίου ο εξαιρετικά ελκυστικός αλγόριθμος για την πρόταση σύντομων βίντεο ανέτρεψε τα όσα ίσχυαν μέχρι τότε στα κοινωνικά μέσα, αναγκάζοντας τους ανταγωνιστές να προσπαθούν απεγνωσμένα να καλύψουν τη διαφορά.

Social media: Τα Reels του Instagram και το κέρδος εις βάρος της υγείας

Ένας ανώτερος ερευνητής της Meta, ο Matt Motyl, δήλωσε ότι το Instagram Reels, το ανταγωνιστικό προϊόν της εταιρείας έναντι του TikTok, κυκλοφόρησε το 2020 χωρίς επαρκείς διασφαλίσεις. Εσωτερική έρευνα που κοινοποιήθηκε στο BBC έδειξε ότι τα σχόλια που γίνονταν στα Reels παρουσίαζαν σημαντικά υψηλότερη συχνότητα εκφοβισμού και παρενόχλησης, ρητορικής μίσους, καθώς και βίας ή υποκίνησης σε σχέση με άλλα μέρη του Instagram.

Η εταιρεία επένδυσε σε 700 υπαλλήλους για την ανάπτυξη του Reels, ενώ αναφορικά με τις ομάδες ασφάλειας, αρνήθηκε την πρόσληψη δύο ειδικευμένων υπαλλήλων για την προστασία των παιδιών και 10 επιπλέον για τη διασφάλιση της ακεραιότητας των εκλογών, όπως ανέφερε ένας άλλος πρώην ανώτερος υπάλληλος της Meta.

Ο Motyl παρέδωσε στο BBC δεκάδες έγγραφα που χαρακτήρισε ως «ερευνητικά έγγραφα υψηλού επιπέδου που αποδεικνύουν κάθε είδους βλάβες που υφίστανται οι χρήστες σε αυτές τις πλατφόρμες». Μεταξύ αυτών, υπήρχαν στοιχεία που δείχνουν ότι το Facebook γνώριζε τα προβλήματα που προκαλούσε ο αλγόριθμός του.

Ο αλγόριθμος πρόσφερε στους δημιουργούς περιεχομένου μια «διαδρομή που μεγιστοποιεί τα κέρδη σε βάρος της ευημερίας του κοινού τους», σύμφωνα με μια εσωτερική έρευνα.

Σε απάντηση στους ισχυρισμούς των πληροφοριοδοτών, η Meta δήλωσε: «Οποιαδήποτε υπόδειξη ότι ενισχύουμε σκόπιμα επιβλαβές περιεχόμενο για οικονομικό όφελος είναι λανθασμένη». Το TikTok δήλωσε ότι πρόκειται για «ψευδείς ισχυρισμούς» και ότι η εταιρεία επένδυσε σε τεχνολογία που εμποδίζει την προβολή επιβλαβούς περιεχομένου.

Οι αλγόριθμοι αποτελούν ένα «μαύρο κουτί» του οποίου η εσωτερική λειτουργία είναι δύσκολο να εξεταστεί λεπτομερώς, δήλωσε ο Ruofan Ding, ο οποίος εργάστηκε ως μηχανικός μηχανικής εκμάθησης και ασχολούνταν με την ανάπτυξη του μηχανισμού προτάσεων του TikTok από το 2020 έως το 2024.

«Ήταν δύσκολο να δημιουργηθούν συστήματα όπως αυτό που να είναι απολύτως ασφαλή», είπε στο BBC.

«Οι μηχανικοί δεν δίνουν μεγάλη προσοχή στο περιεχόμενο των αναρτήσεων», πρόσθεσε.

Είπε ότι βασίζονταν στις ομάδες ασφάλειας περιεχομένου για να διασφαλίσουν ότι οι επιβλαβείς αναρτήσεις αφαιρούνταν, ώστε να μην μπορούν να προωθηθούν από τον αλγόριθμο, συγκρίνοντας τη σχέση τους με ομάδες που εργάζονται σε μέρη ενός αυτοκινήτου.

«Υπάρχει η ομάδα που είναι υπεύθυνη για την επιτάχυνση, τον κινητήρα, σωστά; Οπότε περιμένουμε ότι η ομάδα που εργάζεται στο σύστημα πέδησης κάνει καλή δουλειά», είπε.

Ωστόσο, ο Ντινγκ ανέφερε ότι, καθώς το TikTok προσπαθούσε να βελτιώνει τον αλγόριθμό του σχεδόν κάθε εβδομάδα για να κερδίσει μεγαλύτερο μερίδιο αγοράς, άρχισε να παρατηρεί όλο και περισσότερο «αμφιλεγόμενο» περιεχόμενο ή προβληματικές αναρτήσεις, οι οποίες εμφανίζονταν μόνο αφού οι χρήστες είχαν περιηγηθεί στα βίντεο για κάποιο διάστημα.

Social Media: Το «αμφιλεγόμενο περιεχόμενο» που δεν αφαιρείται

Ο όρος «αμφιλεγόμενο περιεχόμενο» χρησιμοποιείται συνήθως από τις εταιρείες κοινωνικών μέσων για να περιγράψει αναρτήσεις που είναι επιβλαβείς αλλά νόμιμες — όπως μισογυνιστικές, ρατσιστικές και σεξουαλικοποιημένες αναρτήσεις, καθώς και περιεχόμενο που αφορά θεωρίες συνωμοσίας.

Τα συστήματα με τα οποία οι χρήστες μπορούν να δηλώσουν ότι δεν θέλουν να βλέπουν προβληματικό περιεχόμενο δεν λειτουργούν, δήλωσαν μάλιστα έφηβοι στο BBC, και εξακολουθούν να τους προτείνονται βίαιο και μισαλλόδοξο περιεχόμενο σε μεγάλους ιστότοπους κοινωνικών μέσων.

Σε μια ακραία περίπτωση, ένας άλλος έφηβος, ο Calum – που είναι πλέον 19 ετών – δήλωσε ότι είχε «ριζοσπαστικοποιηθεί από τον αλγόριθμο» από την ηλικία των 14 ετών. Ο αλγόριθμος του έδειχνε περιεχόμενο που τον εξόργιζε και τον οδήγησε να υιοθετήσει ρατσιστικές και μισογυνιστικές απόψεις, είπε.

«Τα βίντεο με ενέπνευσαν, αλλά όχι με τον καλό τρόπο», είπε. «Απλώς με έκαναν να νιώθω πολύ θυμωμένος. Αντανακλούσαν σε μεγάλο βαθμό το πώς ένιωθα εσωτερικά, ότι ήμουν θυμωμένος με τους ανθρώπους γύρω μου».

Ειδικοί της αντιτρομοκρατικής αστυνομίας στο Ηνωμένο Βασίλειο, οι οποίοι αναλύουν χιλιάδες αναρτήσεις στα μέσα κοινωνικής δικτύωσης κάθε χρόνο, αναφέρουν ότι έχουν παρατηρήσει την «εξομάλυνση» των αντισημιτικών, ρατσιστικών, βίαιων και ακροδεξιών αναρτήσεων τους τελευταίους μήνες.

«Οι άνθρωποι έχουν γίνει πιο αδιάφοροι απέναντι στη βία του πραγματικού κόσμου και δεν φοβούνται να μοιραστούν τις απόψεις τους», δήλωσε ένας αξιωματικός.

TikTok: Προτεραιότητα σε ασήμαντες υποθέσεις που αφορούσαν πολιτικούς έναντι παιδιών

Κατά τη διάρκεια αρκετών μηνών μέσα στο 2025, το BBC επικοινωνούσε τακτικά με ένα μέλος της ομάδας του TikTok, ο οποίος αποκαλείται απλά Nick. Το βρετανικό μέσο είχε τη δυνατότητα να δει τον εσωτερικό πίνακα ελέγχου της εταιρείας στον φορητό υπολογιστή του, όπου αναφέρονταν λεπτομερώς οι υποθέσεις με τις οποίες ασχολούνταν η ομάδα στην οποία εργαζόταν, καθώς και ο τρόπος με τον οποίο ανταποκρινόταν.

«Αν νιώθεις καθημερινά ενοχές για αυτό που σου έχουν αναθέσει να κάνεις, κάποια στιγμή μπορεί να αποφασίσεις: “Μήπως πρέπει να πω κάτι;”», είπε ο Nick.

Ο όγκος των υποθέσεων που εξέταζαν ήταν πολύ μεγάλος για να μπορούν να παρακολουθούν τα πάντα και να διασφαλίζουν την ασφάλεια των χρηστών, γεγονός που έθετε σε κίνδυνο κυρίως τους εφήβους και τα παιδιά, πρόσθεσε. Οι περικοπές και η αναδιοργάνωση ορισμένων ομάδων εποπτείας – όπου ορισμένοι ρόλοι αντικαθίστανται από τεχνολογία τεχνητής νοημοσύνης – έχουν, κατά την άποψή του, περιορίσει την ικανότητα της εταιρείας να αντιμετωπίζει αποτελεσματικά αυτού του είδους το περιεχόμενο.

Το υλικό που σχετίζεται με «τρομοκρατία, σεξουαλική βία, σωματική βία, κακοποίηση, εμπορία ανθρώπων» φαίνεται να αυξάνεται, ανέφερε ο πληροφοριοδότης.

Η πραγματικότητα όσον αφορά τις προτάσεις της εφαρμογής και τα μέτρα που λαμβάνονται κατά του επιβλαβούς περιεχομένου «διαφέρει πολύ σε πολλά σημεία από όσα δηλώνουν δημοσίως οι ιστότοποι», πρόσθεσε.

Ο Nick παρουσίασε στο BBC στοιχεία που αποδεικνύουν ότι το TikTok έδωσε προτεραιότητα για έλεγχο από την ομάδα ασφάλειας σε ορισμένες σχετικά ασήμαντες υποθέσεις που αφορούσαν πολιτικούς, σε σχέση με αρκετές υποθέσεις που αφορούσαν εφήβους.

Για παράδειγμα, ένας πολιτικός που είχε γίνει αντικείμενο χλευασμού με τη σύγκριση του με ένα κοτόπουλο έλαβε προτεραιότητα έναντι ενός 17χρονου που ανέφερε ότι ήταν θύμα διαδικτυακού εκφοβισμού και πλαστοπροσωπίας στη Γαλλία και ενός 16χρονου στο Ιράκ που παραπονέθηκε ότι εικόνες με σεξουαλικό περιεχόμενο που υποτίθεται ότι τον απεικόνιζαν μοιράζονταν στην εφαρμογή.

Ο Νικ παρουσίασε επίσης παραδείγματα όπου ορισμένες αναρτήσεις που ενθάρρυναν άτομα να ενταχθούν σε τρομοκρατικές ομάδες ή να διαπράξουν εγκλήματα δεν είχαν χαρακτηριστεί ως ύψιστης προτεραιότητας.

Όταν η ομάδα εμπιστοσύνης και ασφάλειας ζήτησε να δοθεί προτεραιότητα σε υποθέσεις που αφορούσαν νέους αντί για πολιτικές υποθέσεις, ο πληροφοριοδότης αποκάλυψε ότι τους είπαν να μην το κάνουν και να συνεχίσουν να χειρίζονται τις υποθέσεις σύμφωνα με τις οδηγίες που τους είχε δοθεί.

TikTok: Στόχος η διατήρηση καλών σχέσεων με πολιτικούς παρά η ευημερία των χρηστών

Ο Nick είπε ότι ο λόγος για την ιεράρχηση αυτή ήταν ότι – κατά την άποψή του – η εταιρεία τελικά ενδιαφέρεται λιγότερο για την ασφάλεια των παιδιών από ό,τι για τη διατήρηση μιας «ισχυρής σχέσης» με πολιτικούς και κυβερνήσεις, προκειμένου να αποφύγει ρυθμίσεις ή απαγορεύσεις που θα έβλαπταν τις δραστηριότητές της.

Ο Νικ είπε ότι όταν αυτός και άλλα μέλη του προσωπικού εξέφρασαν ορισμένες από αυτές τις ανησυχίες στη διοίκηση, εκείνοι δεν έδειξαν κατανόηση, επειδή «δεν έρχονται σε επαφή με αυτό το περιεχόμενο στην καθημερινότητά τους».

Η ευθεία συμβουλή του υπαλλήλου του τμήματος εμπιστοσύνης και ασφάλειας προς τους γονείς που έχουν παιδιά που χρησιμοποιούν το TikTok είναι: «Διαγράψτε την εφαρμογή, κρατήστε τα παιδιά σας όσο το δυνατόν πιο μακριά από την εφαρμογή για όσο το δυνατόν περισσότερο».

Το TikTok δήλωσε ότι απορρίπτει την ιδέα ότι το πολιτικό περιεχόμενο έχει προτεραιότητα έναντι της ασφάλειας των νέων και ανέφερε ότι ο ισχυρισμός αυτός «παραποιεί θεμελιωδώς τον τρόπο λειτουργίας των συστημάτων εποπτείας του».

Η ομάδα στην οποία ανήκει ο Nick αποτελεί μέρος ενός ευρύτερου συστήματος ασφάλειας που διαθέτει πολλαπλές ομάδες υπεύθυνες για την εξέταση καταγγελιών σχετικά με το περιεχόμενο.

Ένας εκπρόσωπος της TikTok δήλωσε ότι οι κριτικές «αγνοούν την πραγματικότητα του τρόπου με τον οποίο η TikTok επιτρέπει σε εκατομμύρια ανθρώπους να ανακαλύψουν νέα ενδιαφέροντα, να βρουν κοινότητα και υποστηρίζει μια ακμάζουσα οικονομία δημιουργών».

Η εταιρεία υποστηρίζει ότι οι λογαριασμοί για εφήβους διαθέτουν περισσότερα από 50 προκαθορισμένα χαρακτηριστικά και ρυθμίσεις ασφάλειας που ενεργοποιούνται αυτόματα. Δήλωσε επίσης ότι επενδύει σε τεχνολογία που βοηθά στην αποτροπή της προβολής επιβλαβούς περιεχομένου, διατηρεί αυστηρές πολιτικές συστάσεων και παρέχει λειτουργίες που επιτρέπουν στους χρήστες να προσαρμόζουν την εμπειρία τους.

Μέσα κοινωνικής δικτύωσης: Ο ανταγωνισμός των κολοσσών εις βάρος των χρηστών

Το 2020, το τοπίο σχετικά με τους αλγόριθμους των social media άλλαξε όταν κυκλοφόρησε η λειτουργία Reels στο Instagram, ως απάντηση στην ραγδαία εξάπλωση του TikTok σε όλο τον κόσμο κατά τη διάρκεια της πανδημίας του Covid.

Ο Matt Motyl – ο οποίος εργάστηκε ως ανώτερος ερευνητής στο Facebook και στη διάδοχη εταιρεία του, τη Meta, από το 2021 – δήλωσε ότι αυτή ήταν η προσπάθεια της εταιρείας να «μιμηθεί» το «μοναδικό προϊόν» που είχε λανσάρει το TikTok.

Η δουλειά του μεταξύ 2019 και 2023 περιελάμβανε «τη διεξαγωγή πειραμάτων μεγάλης κλίμακας, μερικές φορές έως και σε εκατοντάδες εκατομμύρια ανθρώπους» – οι οποίοι συχνά «δεν είχαν ιδέα» ότι αυτό συνέβαινε – δοκιμάζοντας πώς κατατάσσεται το περιεχόμενο στα feeds.

«Τα προϊόντα της Meta χρησιμοποιούνται από πάνω από τρία δισεκατομμύρια άτομα και όσο περισσότερο χρόνο μπορούν να σας κρατήσουν εκεί, τόσο περισσότερες διαφημίσεις πωλούν, τόσο περισσότερα χρήματα βγάζουν. Αλλά είναι πολύ σημαντικό να κάνουν σωστά αυτά τα πράγματα, γιατί όταν δεν τα κάνουν, συμβαίνουν πραγματικά άσχημα πράγματα», υπογράμμισε.

Όσον αφορά συγκεκριμένα τα Reels, ο Motyl ανέφερε ότι η προσέγγιση ήταν να προχωρήσουν όσο το δυνατόν γρηγορότερα, ανεξάρτητα από τις επιπτώσεις στους χρήστες. Είπε ότι υπήρχε μια «συνηθισμένη αντιπαράθεση μεταξύ της προστασίας των ανθρώπων από επιβλαβές περιεχόμενο και της αλληλεπίδρασης».

Η Meta δυσκολευόταν να αποτρέψει το επιβλαβές περιεχόμενο στα Reels μετά την κυκλοφορία τους, σύμφωνα με μια ερευνητική εργασία που μοιράστηκε με το BBC. Η εργασία υποδηλώνει ότι οι αναρτήσεις στο Reels είχαν υψηλότερη συχνότητα επιβλαβών σχολίων σε σύγκριση με τις αναρτήσεις στο κύριο feed του Instagram: 75% υψηλότερη για εκφοβισμό και παρενόχληση, 19% υψηλότερη για ρητορική μίσους και 7% υψηλότερη για βία και υποκίνηση.

Είπε ότι υπήρχε «ανισορροπία ισχύος», καθώς το προσωπικό ασφαλείας έπρεπε να λάβει τη συγκατάθεση των ομάδων που ήταν υπεύθυνες για το Reels για να εισαγάγει ένα νέο προϊόν ή μια νέα λειτουργία που θα βελτίωνε την ασφάλεια των χρηστών. Το προσωπικό του Reels είχε «κίνητρα να μην επιτρέψει την κυκλοφορία αυτών των προϊόντων, επειδή το τοξικό περιεχόμενο συγκεντρώνει μεγαλύτερη αλληλεπίδραση από το μη τοξικό», ανέφερε ο Motyl.

Ο Brandon Silverman, του οποίου το εργαλείο παρακολούθησης κοινωνικών μέσων Crowdtangle αγοράστηκε από το Facebook το 2016, συμμετείχε σε ορισμένες συζητήσεις ανώτερου επιπέδου κατά τη διάρκεια αυτής της περιόδου και περιέγραψε πώς ο διευθύνων σύμβουλος Mark Zuckerbeg ήταν «πολύ παρανοϊκός» σχετικά με τον ανταγωνισμό.

«Όταν αισθάνεται ότι υπάρχουν πιθανές ανταγωνιστικές δυνάμεις, κανένα ποσό χρημάτων δεν είναι υπερβολικό», δήλωσε ο Silverman.

Τα Reels του Instragram, το επιβλαβές περιεχόμενο και η γνώση της Meta

Ένας πρώην μηχανικός της Meta, ο οποίος αποκαλείται Tim, ανέφερε ότι, καθώς η εταιρεία προσπαθούσε να ανταγωνιστεί το TikTok, επιτρεπόταν στην πλατφόρμα όλο και περισσότερο περιεχόμενο που βρισκόταν στα όρια του επιβλαβούς. Η ομάδα του είχε επικεντρωθεί στη μείωση αυτού του περιεχομένου, μέχρι που άλλαξε η «επιχειρηματική στρατηγική».

«Χάνετε από το TikTok και, ως εκ τούτου, η τιμή της μετοχής σας πρέπει να υποστεί πτώση. Οι άνθρωποι άρχισαν να γίνονται παρανοϊκοί και αντιδραστικοί και έλεγαν: ας κάνουμε ό,τι μπορούμε για να καλύψουμε τη διαφορά. Πού μπορούμε να βρούμε 2%, 3% έσοδα για το επόμενο τρίμηνο;» είπε ο Tim.

Είπε ότι η απόφαση να σταματήσει ο περιορισμός περιεχομένου που ήταν πιθανώς επιβλαβές αλλά όχι παράνομο – και με το οποίο αλληλεπιδρούσαν οι χρήστες – ελήφθη από έναν ανώτερο αντιπρόεδρο της Meta, ο οποίος, σύμφωνα με τον Tim, αναφερόταν απευθείας στον Mark Zuckerberg.

Την εποχή που το Facebook υποστήριζε ότι ήταν απλώς ένας «καθρέφτης της κοινωνίας», εσωτερικά έγγραφα που μοιράστηκε με το BBC ο Motyl, ο ανώτερος ερευνητής, αποκαλύπτουν πώς η εταιρεία γνώριζε ότι ενίσχυε περιεχόμενο που εξόργιζε τους ανθρώπους και μάλιστα υποκίνησε βλάβη.

Τα έγγραφα περιγράφουν πώς το ευαίσθητο περιεχόμενο —το οποίο μπορεί να περιλαμβάνει υλικό που αγγίζει τις ηθικές πεποιθήσεις των ανθρώπων ή αναρτήσεις που υποκινούν τη βία— είναι πιο πιθανό να προκαλέσει αντίδραση και αλληλεπίδραση στον ιστότοπο, ειδικά αν προκαλεί οργή.

«Δεδομένης της δυσανάλογης αλληλεπίδρασης, οι αλγόριθμοί μας υποθέτουν ότι στους χρήστες αρέσει αυτό το περιεχόμενο και επιθυμούν περισσότερο από αυτό», αναφέρει η μελέτη.

Ο Σίλβερμαν ανέφερε ότι η διοίκηση της Meta φαινόταν αρχικά αβέβαιη ως προς τον τρόπο αντιμετώπισης του τοξικού περιεχομένου στην πλατφόρμα και ότι υπήρξε μια περίοδος κατά την οποία η εταιρεία βρισκόταν σε διαδικασία αυτοκριτικής.

Ωστόσο, πρόσθεσε ότι η στάση τους «άρχισε να παγιώνεται σε μια μορφή αμυντικής στάσης». Η αντίληψή τους ήταν ότι «δεν είμαστε υπεύθυνοι για όλη την πόλωση στην κοινωνία», είπε.

«Κανείς δεν λέει ότι είστε υπεύθυνοι για όλη την πόλωση. Απλώς λέμε ότι συμβάλλετε σε αυτήν, και πιθανώς με τρόπους που δεν χρειάζεται. Αν κάνατε μερικές αλλαγές, ίσως να μην συμβάλλετε τόσο πολύ», είπε ο Silverman.

Ένας εκπρόσωπος της Meta αρνήθηκε τους ισχυρισμούς των πληροφοριοδοτών. «Η αλήθεια είναι ότι έχουμε αυστηρές πολιτικές για την προστασία των χρηστών στις πλατφόρμες μας και έχουμε πραγματοποιήσει σημαντικές επενδύσεις στην ασφάλεια και την προστασία κατά την τελευταία δεκαετία», δήλωσε ο εκπρόσωπος.

Η εταιρεία με τη σειρά της ανέφερε ότι είχε «πραγματοποιήσει ουσιαστικές αλλαγές για την προστασία των εφήβων στο διαδίκτυο», συμπεριλαμβανομένης της εισαγωγής μιας νέας λειτουργίας λογαριασμών για εφήβους «με ενσωματωμένες προστασίες και εργαλεία για τους γονείς ώστε να διαχειρίζονται τις εμπειρίες των εφήβων τους».