top of page

Diseñar las redes para la verdad

  • Writer: Estupido Libre Albedrio
    Estupido Libre Albedrio
  • 2 minutes ago
  • 7 min read



En el 2020, la posibilidad de un internet genuinamente favorable a la verdad parecía más una aspiración que un proyecto realizable. Las plataformas digitales, encabezadas por Facebook, habían multiplicado sus esfuerzos de moderación, pero la aritmética era implacable: mientras la capacidad humana para revisar contenido crecía de manera lineal, la producción automatizada de cuentas falsas y desinformación se expandía de forma exponencial. El filósofo Jonathan Rauch parte de este diagnóstico sin concesiones para argumentar que no existe una solución única ni definitiva, y que cualquier respuesta seria al problema deberá combinar, de manera orgánica y adaptativa, múltiples dimensiones: política, legal, tecnológica y social.


El repaso que hace el texto de los intentos regulatorios revela sus límites con precisión clínica. La Sección 230 estadounidense, que blindaba a las plataformas de responsabilidad civil por el contenido de sus usuarios, era simultáneamente el escudo de la libertad de expresión en línea y el paraguas bajo el que prosperaban el fraude y el acoso. Las legislaciones europeas contra el discurso de odio, por su parte, produjeron un efecto de censura indeseado: empresas sobrecargadas y temerosas de multas bloquearon contenido legítimo mientras los actores malintencionados encontraban vías alternativas. Ninguno de esos marcos ofreció una respuesta satisfactoria, y el debate jurídico, lejos de resolverse, apenas comenzaba.


La inflexión más productiva del argumento llega con la tesis del creador de Twitter, Jack Dorsey: el diseño del producto importa más que el diseño de las políticas. Wikipedia lo había demostrado décadas antes, no solo con sus normas de neutralidad, sino con la arquitectura de incentivos que construyó alrededor de ellas. Rauch toma esa intuición y la proyecta hacia el futuro ¿qué ocurriría si las plataformas incorporaran períodos de espera antes de publicar, sistemas de verificación automática de enlaces, paneles de revisión entre pares o botones de valoración de la veracidad? La propuesta de una "puntuación de crédito epistémico" sintetiza esta lógica: si los usuarios supieran que su reputación se construye sobre la precisión y no sobre la viralidad, los incentivos cambiarían de raíz.


El cierre del capítulo no es triunfalista sino metodológico: Twitter, al introducir alertas para publicaciones marcadas como falsas o engañosas, no resolvió el problema de la desinformación, pero demostró que era posible diseñar fricciones deliberadas dentro de los sistemas que ralentizan la impulsividad y dan tiempo a la reflexión. Rauch concluye que el valor de estas iniciativas no reside en su eficacia garantizada, sino en la actitud que representan: la disposición a experimentar, a corregir errores y a construir, por ensayo y error, entornos digitales que alineen sus arquitecturas con los valores epistémicos que hacen posible el conocimiento colectivo.



A continuación, comparto extracto del libro La constitución del conocimiento.

 

 

Capítulo 5

Tecnología de la Desinformación: El Desafío de los Medios Digitales


Parte 2

Desde la perspectiva de 2020, la idea de un internet favorable a la verdad ponía a prueba la imaginación. Aunque Facebook anunció una serie de innovaciones, intervenciones e improvisaciones, pocos expertos se mostraban optimistas respecto a poder superar el tsunami de fraude e indignación. Facebook duplicó su brigada de moderadores humanos de contenido, y podía volver a duplicarla una y otra vez; pero la capacidad humana para filtrar contenido crece de manera aritmética, mientras que la capacidad de los robots para generar contenido basura y cuentas falsas crece de forma exponencial. En un solo período de seis meses en 2018, Facebook identificó y eliminó mil millones de cuentas fraudulentas, lo cual fue positivo, pero las cifras por sí solas sugerían con qué facilidad podía crearse otro mil millones. Y eso era solo en Facebook.


¿Qué conjunto de estratagemas y tecnologías podría seguirle el ritmo a la tecnología de la desinformación? La respuesta real es que nadie podía saberlo, y yo ciertamente no pretendo hacerlo. Sin embargo, algunos contornos generales comienzan a hacerse visibles, y hay razones para la esperanza e incluso el optimismo, siempre que comprendamos el problema correctamente. Parece claro que no habrá una solución mágica. Wikipedia comenzó acertando en algunas cosas importantes. Desde el principio, se comprometió con una sola realidad y con normas de neutralidad y objetividad, y se entendía a sí misma como una comunidad, no como una “plataforma”. En esos aspectos, nació como parte de la comunidad basada en la realidad. El resto, sin embargo, fue producto del ensayo y el error, la evolución y el debate, al igual que la ciencia liberal misma.


En el resto del mundo de los medios digitales, volverse favorable a la verdad será aún más orgánico e impredecible. Implicará permutaciones de arquitectura política, arquitectura legal, arquitectura de productos y, sobre todo, arquitectura social. La implementación de esas arquitecturas requerirá el juicio humano, que es lento, y la mecanización, que es rápida; por lo tanto, exigirá la colaboración de personas y máquinas en equipos especiales que, para 2020, ya se estaban inventando y desplegando en lugares como Facebook y Google.

En el frente político, empresas y organizaciones de todo tipo examinaron preguntas como si debía establecerse límites al contenido subido por los usuarios y cómo hacerlo; cuánto anonimato es demasiado; cómo definir y ponderar los compromisos con la libertad de expresión; dónde trazar la línea entre la franqueza y el acoso. En el frente legal, surgió un debate vigoroso sobre el futuro de la Sección 230, un estatuto estadounidense que protege a las empresas de internet de la responsabilidad civil por el contenido generado por los usuarios, una exención que no estaba disponible para los editores fuera de línea, y que, según el punto de vista, o bien permitía florecer la libertad de expresión en línea o bien subsidiaba el acoso y el fraude en internet. (Había verdad en ambas perspectivas.)


Algunos países, especialmente en Europa, adoptaron estatutos que exigían a los medios digitales regular su contenido y eliminar el discurso de odio o las noticias falsas, un enfoque que estaría en conflicto con la Constitución en los Estados Unidos y que, en todo caso, enfriaba conversaciones legítimas en línea y también era insuficiente para frenar a los trolls ingeniosos. En Alemania, según informó The Economist en 2018, “Desbordadas por el volumen y temerosas de incurrir en grandes multas, las empresas de redes sociales están optando por la censura”. Los tuits bloqueados incluían uno del propio ministro que había presentado la ley sobre el discurso de odio en línea. En cualquier caso, el debate jurídico también estaba apenas comenzando.


En una entrevista con el podcaster Sam Harris en 2019, Jack Dorsey, fundador y director ejecutivo de Twitter, afirmó que la batalla contra la desinformación y el comportamiento abusivo en línea se ganaría más por el diseño del producto que por el diseño de políticas. Era una observación poderosa, respaldada por la experiencia tanto en línea como fuera de ella. Wikipedia, por ejemplo, diseñó cuidadosamente sus reglas y políticas, pero al menos una parte igual de su éxito se debía a la forma en que fue construida, con incentivos que fomentaban la responsabilidad, la corrección de errores, la persuasión y demás.


Inspirado en esa reflexión, Dorsey señaló que la decisión inicial de diseño de Twitter de enfatizar el número de seguidores fue un error, porque incentivaba conductas desenfrenadas orientadas a captar la atención; por eso, en 2019, comenzó a hablar de cambios que ayudaran a los usuarios a seguir conversaciones y temas, en lugar de personalidades. Asimismo, lamentó el botón “Me gusta”, que alentaba el contenido performativo y orientado a la exhibición, así como el intercambio emocional y poco reflexivo. Lo que pudiera surgir de sus reflexiones era una incertidumbre para todos, pero el solo hecho de pensar en cómo incorporar la afabilidad hacia la verdad y los incentivos prosociales en los productos de los medios digitales abría nuevos horizontes de posibilidad.

Por ejemplo, era imprudente configurar las redes sociales para que propagaran contenido de forma instantánea y universal. La inmediatez favorece inherentemente la impulsividad, la indignación y el impacto sensacionalista. ¿Por qué no incorporar un período de espera antes de que las publicaciones de los usuarios se hagan públicas, o al menos darles a los usuarios esa opción? Ralentizar las cosas, introducir fricción, como lo ha expresado Justin Kosslyn, nos da tiempo para activar nuestros circuitos mentales más lentos, que son más racionales y menos emocionales.


¿Por qué no, durante esa pausa, dirigir las publicaciones a algoritmos que puedan informarme si un enlace que estoy compartiendo ha reprobado la verificación de datos? ¿O permitirme designar a dos o tres amigos como mi panel personal de editores sociales, quienes podrían advertirme si una broma de mal gusto está a punto de arruinar mi vida? ¿Qué tal si, junto al botón “Me gusta” (o tal vez en lugar de él), hubiera un botón “Verdadero” que me permitiera calificar la precisión de las publicaciones?


La posibilidad de calificar las publicaciones por su veracidad, y saber que las mías también serán calificadas por otros, podría motivarme a preocuparme por la precisión, no solo por la viralidad. Además, con la ayuda del aprendizaje automático y la verificación de datos externa, el sistema podría asignar a los usuarios una puntuación de crédito epistémico. Una puntuación alta de confiabilidad podría ganarme una estrella dorada y mayor visibilidad. Tendría razones para construir una reputación de honestidad. El propósito de plantear estas ideas no es predecir que funcionarían. El propósito es pensar en cómo diseñar los medios digitales con una orientación epistémica en mente.


En noviembre de 2020, cuando Twitter buscaba frenar la ola de desinformación sobre las elecciones y la pandemia de COVID-19, introdujo alertas que advertían a los usuarios cuando estaban a punto de compartir una publicación que había sido calificada como falsa o engañosa. “Esto es controvertido”, decía la alerta. “Ayuda a mantener Twitter como un espacio para información confiable. Infórmate mejor antes de compartir.” Los usuarios aún podían presionar el botón de retweet, pero debían pensar primero, y algunos podrían aceptar la sugerencia de aprender más. ¿Los usuarios tomarían decisiones más informadas? ¿O las alertas producirían el efecto contrario al llamar más la atención sobre la información errónea? Solo el ensayo y el error podría determinarlo. Lo importante era que las empresas de redes sociales, los desarrolladores y los investigadores estaban imaginando y probando innovaciones favorables a la verdad.

 
 
 

Comments


  • Twitter Social Icon
  • generic-social-link

©2018 by Estúpido Libre Albedrío. Proudly created with Wix.com

bottom of page