Connect with us

Internacional

Ni 'fake news', ni silenciar cuentas: así consigue la red social X de Elon Musk que te hagas de derechas sin darte cuenta

Published

on

Hace tiempo que el magnate Elon Musk descubri� que no hace falta manipular mensajes, ni fabricar fake news, ni borrar tuits para influir en la conversaci�n p�blica: basta con decidir cu�l aparece primero. Ese es el poder silencioso del algoritmo de su compa��a X (antes Twitter), que un grupo de investigadores acaba de poner a prueba con usuarios reales y que, seg�n sus resultados, es capaz de desplazar la percepci�n pol�tica sin que el usuario lo note.

La red ofrece dos formas de ver los mensajes: el timeline “Para ti”, ordenado por el algoritmo seg�n lo que cree que te interesar� m�s, y el timeline “Siguiendo”, que muestra solo las cuentas que sigues en orden cronol�gico. Cambiar entre uno y otro —algo que se hace con un simple clic en la parte superior de la pantalla— equivale, en la pr�ctica, a “activar” o “desactivar” el algoritmo: el primero selecciona y prioriza contenidos autom�ticamente; el segundo se limita a ense�arlos tal y como se publican, sin recomendaciones personalizadas.

El estudio, publicado en Nature y dirigido por la economista Ekaterina Zhuravskaya, no se bas� en encuestas ni en simulaciones de laboratorio, sino en un ensayo real con miles de usuarios estadounidenses de la red social. Durante siete semanas, los investigadores manipularon precisamente ese elemento: unos participantes ve�an un feed cronol�gico, sin recomendaciones; otros, el feed algor�tmico habitual que ordena los contenidos seg�n las probabilidades de interacci�n del usuario.

El resultado fue doble y revelador. Por un lado, el algoritmo increment� de forma clara la actividad: los usuarios expuestos al feed autom�tico interactuaron en torno a un 12-15% m�s (likes, retuits y tiempo de permanencia) que quienes recib�an el timeline cronol�gico. Por otro, aparecieron cambios medibles en opiniones pol�ticas concretas. Los participantes que navegaron con el algoritmo mostraron posiciones ligeramente m�s conservadoras en temas de actualidad especialmente polarizados en Estados Unidos, como las investigaciones judiciales contra Donald Trump, la guerra de Ucrania, y cuestiones relacionadas con inmigraci�n, orden p�blico y pol�tica exterior.

El giro no fue radical ni transform� la identidad ideol�gica declarada de los usuarios, es decir, que nadie cambi� de partido por usar el algoritmo, pero s� fue estad�sticamente significativo tras varias semanas de exposici�n, en las que los usuarios fueron manifestando peque�as variaciones en opiniones pol�ticas concretas.

Adem�s, el experimento detect� un efecto asim�trico: pasar del timeline cronol�gico al algor�tmico s� alteraba percepciones; pero hacerlo al rev�s ya no deshac�a el camino ideol�gico recorrido. La raz�n es estructural, explican los investigadores. Durante ese tiempo, los usuarios hab�an empezado a seguir nuevas cuentas pol�ticas, hab�an interiorizado determinados marcos de debate y hab�an reorganizado su ecosistema informativo. El algoritmo, en otras palabras, no solo muestra contenido: cambia a qui�n escuchas.

Los investigadores identificaron un posible mecanismo: el sistema tend�a a recomendar relativamente m�s contenido pol�tico de corte conservador y menos enlaces a medios de comunicaci�n tradicionales. No necesariamente por una decisi�n ideol�gica consciente, sino por pura l�gica de engagement: mensajes m�s emocionales, pol�micos o contundentes generan m�s reacci�n, y el algoritmo aprende a premiarlos.

Grok, la herramienta de IA que responde a los usuarios en X.

Grok, la herramienta de IA que responde a los usuarios en X.PABLO VERAAFP

La discusi�n se ha intensificado con la incorporaci�n de nuevas herramientas de inteligencia artificial dentro de la propia plataforma, como Grok, que no solo ordenan contenidos sino que tambi�n los interpretan y explican al usuario. Para algunos analistas, este paso acerca a las redes sociales a un modelo en el que el algoritmo no solo decide qu� vemos, sino tambi�n c�mo se nos contextualiza pol�ticamente lo que vemos.

En el caso de Espa�a, no existe todav�a un experimento controlado equivalente al estadounidense, pero s� ha habido investigaciones que observaban din�micas similares. Un informe interno de la propia plataforma, publicado en 2021 (cuando la compa��a a�n no pertenec�a a Elon Musk), analiz� millones de tuits pol�ticos en siete pa�ses —entre ellos Espa�a— para medir qu� mensajes recib�an mayor amplificaci�n algor�tmica. El resultado fue llamativo: en varios pa�ses europeos, incluido Espa�a, los contenidos procedentes de cuentas y medios de derechas obten�an mayor difusi�n autom�tica que los de izquierdas.

Hace tiempo que el impacto pol�tico de los algoritmos se ha colado en el debate institucional. A principios de febrero de 2026, Pedro S�nchez calific� a los due�os de plataformas como X y Telegram de �tecnocasta� y �depredadores de lo de todos�, acus�ndoles de amenazar la democracia, la convivencia y los derechos. Antes, otros pol�ticos europeos hab�an advertido que los sistemas de recomendaci�n de las reds pueden favorecer contenidos extremos o polarizantes a cambio de generar m�s interacci�n. La discusi�n no gira tanto en torno a una supuesta manipulaci�n directa, sino a un problema de dise�o: cuando el objetivo es maximizar el tiempo de uso, el algoritmo aprende que la confrontaci�n retiene m�s atenci�n que la moderaci�n.

Varios expertos en comunicaci�n pol�tica coinciden en que el efecto no es inmediato ni visible en encuestas electorales, pero s� acumulativo. El polit�logo estadounidense Joshua Tucker ha descrito estos sistemas como “arquitectos invisibles” del espacio p�blico digital: no cambian necesariamente lo que piensas de ti mismo, pero s� la proporci�n de mensajes que escuchas a favor o en contra de una idea.

Ni en Estados Unidos ni en Espa�a la evidencia disponible permite afirmar que un algoritmo determine el voto o transforme de ra�z la ideolog�a de los ciudadanos. Pero s� sugiere algo m�s sutil y quiz� m�s relevante: que el sistema decide qu� temas ocupan el centro del debate, qu� voces parecen mayoritarias y qu� marcos interpretativos se repiten cada d�a en millones de pantallas.

El algoritmo no escribe los mensajes ni dicta consignas pol�ticas. Pero establece el orden de prioridad de la conversaci�n p�blica. Y en pol�tica, ese orden —lo que aparece primero cuando abrimos la aplicaci�n— puede acabar moldeando, poco a poco, la forma en que interpretamos la actualidad y evaluamos a los actores pol�ticos.


source

Please follow and like us:
Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Facebook