ΓΙΑΤΙ ΚΑΠΟΙΕΣ ΓΥΝΑΙΚΕΣ ΣΤΟ LINKEDIN «ΜΕΤΑΜΦΙΕΣΤΗΚΑΝ» ΣΕ ΑΝΤΡΕΣ;
Μπορεί ένας αλγόριθμος να μεροληπτεί και να προωθεί έμφυλα στερεότυπα; Ένα μικρό πείραμα στη γνωστή πλατφόρμα LinkedIn μάς γεμίζει ερωτηματικά.
«Άλλαξα το φύλο μου σε “άντρας” στο LinkedIn πριν από μία εβδομάδα και οι προβολές μου αυξήθηκαν κατά 400%. Έκανα επίσης δύο ακόμη αλλαγές: Ζήτησα από το ChatGPT να ξαναγράψει τον τίτλο και την περιγραφή μου σε πιο "ανδρική" χροιά, βασισμένη σε ερευνητικά άρθρα που περιγράφουν διαφορές φύλου στην επικοινωνί, ενώ πήρα αναρτήσεις των τελευταίων μηνών που δεν είχαν καλή απόδοση και τις επεξεργάστηκα με τον ίδιο τρόπο».
Η Megan Cornish, copywriter και strategist, περιγράφει ένα μικρό προσωπικό πείραμα που αποφάσισε να κάνει, όταν παρατήρησε ότι η απήχηση του περιεχομένου της στο LinkedIn είχε πέσει. Η ανάρτησή της έγινε viral, πυροδοτώντας μια μεγάλη συζήτηση γύρω από την ορατότητα, τη γλώσσα και τις προκαταλήψεις στο επαγγελματικό διαδίκτυο.
Η ανάρτηση της Cornish συγκέντρωσε εκατοντάδες σχόλια. Πολλοί χρήστες εξέφρασαν απογοήτευση για τη δική τους χαμηλή απήχηση, ενώ άλλοι αντέδρασαν με σκεπτικισμό. Μπορεί μια αλλαγή στον τρόπο γραφής ή στις αντωνυμίες να επηρεάζει τόσο την ορατότητα;
Μετά τη δημοσίευση, το LinkedIn γέμισε με αντίστοιχες ιστορίες, όπου γυναίκες ανέφεραν ότι είδαν αύξηση στην απήχησή τους όταν έκρυψαν το φύλο τους ή υιοθέτησαν μια πιο «ανδρική» παρουσία.
Η ίδια η Cornish, πάντως, έσπευσε να διευκρινίσει ότι αυτό που έκανε δεν αποτελεί επιστημονική μελέτη και ότι οι περιορισμοί είναι πολλοί. Το ερώτημα, όμως, είχε ήδη τεθεί.
Η απάντηση του LinkedIn
Απέναντι σε αυτή τη συζήτηση, το LinkedIn πήρε θέση. Όπως αναφέρει η Sakshi Jain, επικεφαλής AI και διακυβέρνησης AI της πλατφόρμας, τα συστήματα τεχνητής νοημοσύνης και οι αλγόριθμοι που χρησιμοποιεί η πλατφόρμα βασίζονται σε «εκατοντάδες σήματα», αλλά δεν χρησιμοποιούν δημογραφικά στοιχεία, όπως ηλικία, φυλή ή φύλο, για να καθορίσουν την ορατότητα περιεχομένου ή προφίλ.
Περιπλέκοντας την κατάσταση
Η εμπειρία της Cornish φέρνει στο προσκήνιο ένα πιο σύνθετο ζήτημα, «το πώς η γλώσσα ή χαρακτηριστικά που παραδοσιακά συνδέονται με τις γυναίκες υποτιμώνται και ενσωματώνονται στα δομικά μας συστήματα», αναφέρει η Allison Elias, επίκουρη καθηγήτρια διοίκησης επιχειρήσεων στο Πανεπιστήμιο της Βιρτζίνια.
Η τεχνολογία «αντικατοπτρίζει τις κοινωνικές αξίες και πολλές φορές αυτές οι αξίες δεν είναι εμφανείς σε εμάς. Το LinkedIn πιστεύει ότι ο αλγόριθμός του είναι ουδέτερος, αλλά αν οι χρήστες έχουν έμμεσες προκαταλήψεις, αυτό μπορεί να τον διαμορφώνει», συμπληρώνει. Με άλλα λόγια, τα likes, τα shares, τα comments που κάνουμε ενδέχεται να ενισχύουν συγκεκριμένα πρότυπα. Μπορεί, επομένως, ο αλγόριθμος να είναι «ουδέτερος», ωστόσο δεν λειτουργεί σε ουδέτερο περιβάλλον.
Είναι η τεχνολογία... ουδέτερη;
Η Carol Kulik, καθηγήτρια στο Κέντρο Επαγγελματικής Αριστείας στο Πανεπιστήμιο της Νότιας Αυστραλίας, επισημαίνει ότι η επιχειρηματική γλώσσα παραμένει σε μεγάλο βαθμό ανδροκεντρική και το LinkedIn, ως επαγγελματική πλατφόρμα, δεν αποτελεί εξαίρεση. «Είναι ο αλγόριθμος ευαίσθητος στη γλωσσική διαφοροποίηση φύλου; Φυσικά», σημειώνει.
Έρευνες δείχνουν ότι τα στερεότυπα εξακολουθούν να επηρεάζουν την αξιολόγηση της ποιότητας. Σε πολλές περιπτώσεις, όταν ένα έργο αποδίδεται σε άντρα, θεωρείται αυτόματα υψηλότερης αξίας.
Η Cass Cooper, συγγραφέας και σύμβουλος στον τομέα της Συμπεριληπτικής Ηγεσίας, της Επιχειρηματικής Ηθικής και των Στρατηγικών Ισότητας, υποθέτει ότι τα αποτελέσματα τέτοιων πειραμάτων δεν είναι ίδια για όλους. Η ποικιλία αυτή αναδεικνύει την πολυπλοκότητα των παραγόντων που καθορίζουν την ορατότητα. «Η τεχνολογία δεν είναι παθητική εμπειρία», γράφει.
Η επιχειρηματίας Cindy Gallop έχει εκφράσει παρόμοιες ανησυχίες, σημειώνοντας ότι η απήχησή της μειώθηκε μετά από αλλαγές στον αλγόριθμο. Σε ένα άτυπο πείραμα με φίλους, δική της ανάρτηση έφτασε σε λιγότερο από το 1% των ακολούθων της, ενώ άντρες με μικρότερο κοινό πέτυχαν πολλαπλάσια απήχηση.
Το «μαύρο κουτί» που... αποφασίζει
Η Rachel Maron, συνιδρύτρια εταιρείας AI, επανέλαβε το πείραμα με εξίσου εντυπωσιακά αποτελέσματα, καθώς ανάρτηση που είχε λιγότερες από 150 προβολές έφτασε τις σχεδόν 31 χιλιάδες αφού άλλαξε φύλο και αφαίρεσε αντωνυμίες.
Η ίδια αναγνωρίζει ότι τα σύγχρονα συστήματα, ιδιαίτερα όσα βασίζονται σε μεγάλα γλωσσικά μοντέλα, λειτουργούν ως «μαύρα κουτιά». Ακόμα και οι εταιρείες που τα αναπτύσσουν δεν έχουν πλήρη εικόνα για το πώς προκύπτουν συγκεκριμένα αποτελέσματα.
Έρευνα δείχνει ότι οι αλγόριθμοι δεν δημιουργούν απαραίτητα τις ανισότητες, αλλά τις αναπαράγουν και τις ενισχύουν. Μελέτη του PNAS καταγράφει ότι οι ψηφιακές πλατφόρμες μπορούν να ενισχύσουν τις έμφυλες ανισότητες, προβάλλοντας περισσότερο άντρες.
Αντίστοιχα, συστηματική ανασκόπηση ερευνών δείχνει ότι οι αλγόριθμοι στα social media αναπαράγουν στερεότυπα, περιθωριοποιούν μειονότητες φύλου και ενισχύουν δυαδικές αντιλήψεις.