Avui les xarxes socials no només mostren el que fem, sinó que també condicionen el que veiem. En aquest context, pensar que els algoritmes són imparcials és un miratge. Cada interacció, cada contingut suggerit i cada decisió automatitzada estan guiats per dades que, sovint, perpetuen estereotips i desigualtats, especialment envers les dones.
Els algoritmes de les principals plataformes estan entrenats amb dades que reflecteixen una realitat esbiaixada: històricament, les veus femenines han estat menys escoltades, menys visibles i, en molts casos, qüestionades. Aquesta dinàmica es trasllada al món digital. Els continguts creats per dones —sobretot aquells que qüestionen l’statu quo o reivindiquen drets— tendeixen bé a tenir menys abast o bé a ser objecte de crítiques, fet que afecta la seva visibilitat i impacte. Un algoritme no entén de justícia social, només de patrons. I si els patrons diuen que certs continguts reben més interaccions —encara que siguin negatives—, aquests continguts es promouen, independentment del seu valor o de les conseqüències per als seus creadors.
Però el biaix no es limita només a la visibilitat. També influeix en com es dirigeixen els continguts cap a les usuàries. Una dona jove que s’acaba de registrar en una xarxa social pot veure’s exposada ràpidament a una allau d’anuncis de dietes, cirurgia estètica o moda, mentre que un home amb un perfil similar rep recomanacions de formació, tecnologia o inversions. Aquesta diferència pot semblar subtil, però construeix experiències digitals molt diferents. Mentre a les dones se’ls reforcen missatges sobre la seva aparença i rols tradicionals, als homes se’ls projecta cap a l’ambició, l’emprenedoria i el lideratge. I tot per continuar alimentant la indústria.
L’algoritme no actua amb intenció, però tampoc amb innocència. Els sistemes d’intel·ligència artificial aprenen del passat, i si el passat ha estat desigual, el futur digital no és més prometedor sense una intervenció conscient. Un clar exemple d’això és l'algoritme de TikTok amb els seus filtres de bellesa, que no només fan semblar les dones menys intel·ligents, sinó que també mostren un “biaix racista”, segons han revelat diversos estudis. Aquest fenomen, impulsat pels algoritmes, no només perpetua estereotips de gènere, sinó que també reforça una visió limitada i discriminatòria de la diversitat en l’àmbit digital.
El problema s’agreuja quan pensem en l’assetjament digital. Les dones són molt més susceptibles a patir violència en línia: comentaris despectius, amenaces o la difusió no consentida de contingut íntim. I els algoritmes, dissenyats per fomentar la interacció, a vegades amplifiquen aquestes situacions. Quan una publicació rep molts comentaris, independentment de si són positius o negatius, l’algoritme la considera rellevant i l’exposa encara més. Això significa que una dona que denuncia una situació d’injustícia pot acabar sent més visible, però també més vulnerable.
Aquesta realitat digital també afecta oportunitats molt més enllà de les xarxes. Els sistemes automatitzats que determinen qui pot accedir a un crèdit, qui rep una oferta de feina o fins i tot qui accedeix a salaris més alts, ampliant la bretxa salarial existent, es basen en dades històriques que tradicionalment han discriminat les dones.
La manca d’un enfocament interseccional en el disseny i implementació d’aquestes tecnologies agreuja encara més el problema. Les dones que pertanyen a col·lectius ja vulnerabilitzats —com les dones trans, les dones racialitzades o les dones amb diversitat funcional— pateixen una doble discriminació: primer pel seu gènere i després per una altra característica que l’algoritme ha identificat com a “no estàndard” dins del seu conjunt de dades.
Davant d’aquest panorama, hauríem d’assegurar-nos que la tecnologia es desenvolupa amb criteris d’equitat i justícia. Les xarxes socials i les plataformes digitals tenen la capacitat d’influenciar la nostra percepció del món i de nosaltres mateixes. Per això, ignorar els biaixos de gènere en aquests espais no és només una qüestió tècnica, és una qüestió de drets humans.
En un entorn on la informació es recopila, analitza i utilitza a una velocitat vertiginosa, protegir la privacitat de les usuàries i garantir que no siguin discriminades per un codi invisible és essencial. Però la protecció real només és possible si les institucions, les empreses i la societat civil reconeixen que la tecnologia no és neutral i actuen en conseqüència. Perquè, en última instància, el risc no és només que els algoritmes perpetuïn la desigualtat, sinó que la facin tan invisible i quotidiana que ni tan sols la qüestionem, com a vegades, succeeix en la vida real.