Business & Finance Πέμπτη 16/09/2021, 14:24
BUSINESS & FINANCE

Το Facebook άλλαξε τον αλγόριθμό του για να γίνει λιγότερο τοξικό. Πέτυχε το αντίθετο.

Το Facebook άλλαξε τον αλγόριθμό του για να γίνει λιγότερο τοξικό. Πέτυχε το αντίθετο.

Το φθινόπωρο του 2018 ο Τζόνα Περέτι, διευθύνων σύμβουλος του BuzzFeed, έστειλε ένα σημαντικό email σε κορυφαίο στέλεχος του Facebook. Σε αυτό εξηγούσε ότι όσο πιο διχαστικό είναι το περιεχόμενο που παράγουν τα ειδησεογραφικά sites τόσο πιο viral γίνεται στην πλατφόρμα του δημοφιλούς μέσου κοινωνικούς δικτύωσης, με αποτέλεσμα τα sites να έχουν κίνητρο να παράγουν ολόενα και περισσότερο τέτοιο περιεχόμενο. 

Όπως αποκαλύπτει σε αποκλειστικό ρεπορτάζ η Wall Street Journal ο επικεφαλής του BuzzFeed ανέφερε ως παράδειγμα την επιτυχία άρθρου με τίτλο «21 πράγματα που σχεδόν όλοι οι λευκοί έχουν πιαστεί να λένε». Έλαβε 13.000 κοινοποιήσεις και 16.000 σχόλια στο Facebook, πολλά από τα οποία επέκριναν το BuzzFeed για τη δημιοσίευσή του. Πλήθος σχολίων αφορούσε επίσης τα στερεότυπα για τις φυλές.

Ο Περέτι στο email του επέρριπτε την ευθύνη στις αλλαγές που είχε κάνει το Facebook στον αλγόριθμο του News Feed εκείνη τη χρονιά με διακηρυγμένο στόχο να «τονώσει τις ουσιαστικές κοινωνικές διαδράσεις». 

Το BuzFeed έχτιζε τις δραστηριότητές του πάνω στη δημιουργία περιεχόμενο που μπορούσε να γίνει viral στο Facebook και σε άλλα social media και επομένως ενδιαφερόταν άμεσα για τις όποιες αλλαγές σε αλγόριθμους θα μπορούσαν να πλήξουν την επισκεψιμότητά του. Η συγκεκριμένη αλλαγή δεν μείωσε τους επισκέπτες, αλλά προσέλκυσε πιο «τοξικούς». 

Ο διευθύνων σύμβουλος του Facebook, Μαρκ Ζάκερμπεργκ, απάντησε ότι στόχος των αλλαγών στον αλγόριθμο ήταν να ενισχύσει τους δεσμούς μεταξύ των χρηστών και να βελτιώσει την ευημερία τους. Στόχος ήταν να θα τους ενθαρρύνει ο αλγόριθμος να έχουν μεγαλύτερη διάδραση με τους φίλους και την οικογένειά τους και να περνούν λιγότερο χρόνο καταναλώνοντας παθητικά επαγγελματικό περιεχόμενο, κάτι το οποίο όπως είχαν δείξει έρευνες είχε αρνητική επίδραση στην ψυχική υγεία τους.   

Ωστόσο και μέσα στους κόλπους της εταιρείας υπήρχαν υπάλληλοι που προειδοποίησαν ότι η αλλαγή είχε το ακριβώς αντίθετο περιεχόμενο, όπως δείχνουν έγγραφα που περιήλθαν στην κατοχή της WSJ. Στα έγγραφα ορισμένοι εργαζόμενοι εξηγούσαν ότι ο αλγόριθμος μετατρέπει την πλατφόρμα σε ένα «πιο οργισμένο μέρος». Ερευνητές της εταιρείας ανακάλυψαν ότι εκδότες και πολιτικά κόμματα πράγματι κατεύθυναν τις αναρτήσεις τους προς την πρόκληση οργής και τον εντυπωσιασμό. Η τακτική αυτή τους έφερνε υψηλά επίπεδα σχολίων και αντιδράσεων και μεταφραζόταν σε επιτυχία τόσο για τους ίδιους όσο και για το Facebook. 

«Η προσέγγισή μας είχε μη υγιείς παρενέργειες σε σημαντικά κομμάτια του δημοσίου περιεχομένου, όπως η πολιτική και οι ειδήσεις» έγραψε ένας από τους επιστήμονες δεδομένων της ομάδας του Facebook, επικαλούμενος και τα σχόλια του Περέτι. «Αυτό εξελίσσεται τελικά σε βάρος» πρόσθετε άλλος αναλυτής σε εσωτερικό υπόμνημα. Όλες οι σχετικές επισημάνσεις κατέληγαν στο συμπέρασμα ότι το μεγάλο βάρος που δίνει ο νέος αλγόριθμος σε υλικό που έχει πολλες κοινοποιήσεις στο News Feed ενισχύει τις πιο οργισμένες και διχαστικές φωνές. «Η παραπληροφόρηση, η τοξικότητα και το βίαιο περιεχόμενο έχουν δυσανάλογα μεγάλη παρουσία στις κοινοποιήσεις» έγραφαν ερευνητές σε εσωτερικό υπόμνημα. 

Άλλα έγγραφα αποκαλύπτουν ότι και ορισμένα πολιτικά κόμματα στην Ευρώπη είπαν στο Facebook ότι ο αλγόριθμος τα ανάγκαζε να μεταβάλλουν πολιτικές θέσεις ώστε να έχουν μεγαλύτερη απήχηση στην πλατφόρμα. Αναγνώριζαν ότι για να μπορούν να φτάνουν σε περισσότερους χρήστες στρέφονταν στον αρνητισμό και εξέφραζαν ανησυχία για τις μακροπρόθεσμες επιπτώσεις στη Δημοκρατία». 

moneyreview.gr 

Ακολουθήστε το Money Review στο Google News