Catalina Botero Marino: “¿Cómo vivir en un mundo donde no podemos confiar en los sentidos?”
Puntal de los derechos humanos y la libertad de expresión en Latinoamérica, la abogada colombiana hoy defiende esa causa frente a la manipulación o el abuso de poder en las grandes plataformas digitales


Catalina Botero Marino (Bogotá, 1965) fue durante cuatro años una de las voces del consejo asesor de contenido de Meta (antes, Facebook), conocido como la Súper Corte de apelaciones de Facebook. Abogada, ex Relatora Especial para la Libertad de Expresión de la Corte Interamericana de Derechos Humanos (CIDH), dedica su vida a estudiar los impactos de las plataformas tecnológicas en los derechos humanos y no tiene ni una sola red social.
Durante la conmemoración de los 45 años de la CIDH, enlistó nueve desafíos de los entornos digitales para esos derechos y la democracia que hablan del futuro más próximo: entre ellos, la protección de datos personales; la libertad de expresión online; los neuroderechos; la discriminación algorítmica con la inteligencia artificial (IA) y los deepfake, vídeos, imágenes o audios falsos que suplantan a una persona.
Pregunta: ¿Cuáles fueron las mayores lecciones y las nuevas preguntas de su paso por el consejo de Meta?
Respuesta: Fue muy útil entender la complejidad de la moderación de contenidos en internet y sus enormes diferencias con la manera como se resuelven los casos de libertad de expresión fuera de línea. En moderación de contenidos, por la velocidad y la escala, la pregunta sobre un caso concreto no es cuál es la decisión más justa, y esto puede sonar extraño, sino cuál es el error con el que podemos vivir. Lo dije por primera vez hace como cuatro años y hoy lo sostengo. Ese, tal vez, fue uno de los aprendizajes más importantes.
P: ¿Existe la alternativa?
R: Es imposible detenerse a revisar la justicia de cada uno de los casos concretos porque las plataformas tienen que hacerlo a una enorme velocidad y una escala gigantesca. Lo que hay que hacer es adoptar reglas que se puedan aplicar de manera muy rápida y en las que seguramente habrá errores, pero la alternativa, que es tener un juez constitucional para cada caso, es imposible. Son miles de millones y no puedes tener una persona que revise cada uno de ellos.
P: El Consejo asesor se ha entendido como un parteaguas de la autorregulación. ¿Qué exige la nueva realidad?
R: Ese es el segundo aprendizaje. Las plataformas definitivamente necesitan contar con órganos externos y genuinamente autónomos que puedan ingresar a sus entrañas y auditar su trabajo. De otra manera, será muy difícil que los equipos internos de derechos humanos logren imponerse sobre los de finanzas. Meta ha hecho este esfuerzo, pero habría que hacer otros más. Y hay otras plataformas como X que están más atrasadas. Básicamente, X es utilizada por su dueño para su propia agenda política y con total opacidad sobre la forma como se hace la moderación de contenidos. Al estar en un Consejo de autorregulación como este, uno entiende cuáles son las limitaciones genuinas de moderar a escala y también las que pueden ser superadas con esfuerzos de las empresas.
P: ¿Qué pueden hacer esas empresas de forma estructural?
R: El Consejo de supervisión ha hecho aproximadamente 250 recomendaciones a Meta. Una de ellas, por ejemplo, se refiere al especial cuidado que deben tener al momento de moderar contenidos de periodistas o defensoras y defensores de derechos humanos, así como voces de oposición, especialmente en países con espacios políticos cerrados. Así lo recomendó respecto de un caso sobre Cuba, por ejemplo.
En países autoritarios, las plataformas deben procurar la protección de, especialmente, los discursos críticos, pues es el único espacio que tienen las personas para poderse expresar. También le recomendó que, frente a situaciones críticas de salud pública como la pandemia del covid-19, trabaje con otros sectores, como el de la salud y, en general, la comunidad científica, para identificar qué tipo de contenido puede generar un daño significativo en la vida real de las personas y adoptar medidas transparentes y proporcionadas como el etiquetado o, incluso, en casos en los que resulte indispensable, la remoción.
P: Muchos son discursos no orgánicos sino de contenido agregado. ¿Cuál es el camino posible ante ese tipo de información malintencionada?
R: Contenido agregado se refiere a la sumatoria de un número significativo de contenidos que individualmente pueden no generar daño. Si una persona le dice a otra que tome lejía y esta tiene tres o cuatro seguidores, probablemente eso no ocasione un daño sustantivo. Pero, si tienes a cientos de miles de personas recomendándolo, por la forma en que operan los sesgos tiendes a pensar que es verdadera. Usualmente es información creada con el propósito de desinformar e impulsada por actores que tienen intereses particulares, se sirven de interacciones no humanas, de bots, y están dirigidas a una población susceptible de creer ese tipo de información.
P: En 2020, usted dijo que “ser ingratos con Facebook” era su deber...
R: Meta tiene al menos tres cosas que no tienen las otras plataformas grandes. Por un lado, un equipo de derechos humanos increíblemente robusto y técnicamente muy capacitado y comprometido. Ha creado mecanismos como este del Consejo y, además, ha invertido recursos en tratar de hacer una moderación de contenidos teniendo en cuenta los mercados locales. Pero también existen dificultades como que ese equipo de derechos humanos no necesariamente tiene el mismo peso ponderado que los que definen el modelo de negocio. Falta mucho camino para lo que creo que debe hacer una plataforma.
P: ¿Y qué deben hacer?
R: Las plataformas tienen responsabilidades en materia de derechos humanos y ello debería llevarlas a considerar, en cada una de sus decisiones de diseño, no solo su interés económico, sino el interés público que puede verse afectado. Cuando digo interés público, me refiero al derecho internacional de los derechos humanos y, en general, al sistema democrático. En Europa, las plataformas están obligadas, por ejemplo, a hacer una evaluación de riesgos sobre sus decisiones de diseño. Eso las obligará a incorporar a la ecuación el interés público.
Creo además que las distintas plataformas deberían ser completamente interoperables. Un ideal de verdadero mercado competitivo que se centre en los usuarios sería, por ejemplo, que si un usuario no está dispuesto a aceptar la manera como opera una plataforma, se pueda ir con sus seguidores a otra. Sé que esto es técnicamente muy difícil, hay quien sostiene que no es posible, y sé que va totalmente en contra del modelo de negocio, pero es importante pensar en medidas que permitan que los usuarios puedan escoger entre distintas ofertas, sin costos desproporcionados como perder toda la comunidad o la red que han construido. Y para cuidar los impactos de las plataformas en los derechos humanos, resulta urgente hacer una veeduría y un control mucho más rigurosos en el uso de sistemas de inteligencia artificial.
P: En el Consejo tomaron decisiones sobre casos complejos. ¿Cuáles se destacan?
R: Los de los jefes de Estado fueron muy interesantes. No solamente se reconoce la importancia de que un jefe de Estado pueda hablar y la gente escuche lo que dice, sino también que ellos tienen un poder y una capacidad para crear imaginarios y generar violencia mayor que la de cualquier otro usuario. En el caso en Camboya, por ejemplo, se le recomendó a la plataforma que evaluara la eliminación de la cuenta del primer ministro porque la estaba usando, literalmente, para intimidar a los miembros de la oposición. Cuando una persona, que es un influencer importante por su capacidad de incidir en la conducta de la gente, incita la violencia o criminaliza a la oposición, aumenta el riesgo para las personas que lo critican y está utilizando la plataforma de una manera contraria a las reglas de la misma.
P: En este lapso recibieron casos referentes al ataque al Congreso en Brasil.
R: Se identificó un contenido que incitaba a cometer un acto de violencia, como la toma de los poderes públicos en Brasil, a partir de la información, que no tenía ningún fundamento empírico, de que había un fraude en las elecciones. Hay países en los cuales se roban las elecciones y otros en los que no. La diferencia es la evidencia. En Venezuela, en este momento, hay evidencia de que el Gobierno perdió las elecciones. En Brasil, en cambio, todo el sistema electoral funciona. Sin embargo, había gente que sostenía que se habían robado las elecciones y había que manifestarse incluso tomándose los poderes públicos. Le dimos a Meta una serie de recomendaciones sobre cómo controlar la desinformación en contextos electorales, especialmente cuando puede generar violencia como la del Capitolio en Estados Unidos o Brasilia.

P: ¿Cómo explicar eso de que cierto contenido debe circular, aunque sea ofensivo?
R: Hay información que puede ser molesta, perturbadora y ofensiva, pero si es de interés público, este es más importante para una sociedad democrática que el eventual daño que la información pueda causar. Por ejemplo, una investigación periodística sobre crímenes de corrupción puede causar un daño reputacional a los políticos involucrados, pero, es tan importante para las sociedades democráticas, que la protege el derecho a la libertad de expresión. Si luego la persona involucrada no está de acuerdo y además considera que la información es falsa, puede pedir una rectificación. Existen muchas formas a posteriori para restablecer el derecho eventualmente violado, pero hay que proteger la posibilidad de que la información circule.
P: ¿Cómo establecer límites en este contexto digital?
R: El contexto digital es lo que hace difícil fijar el límite. Sin embargo, no toda la información que una persona profiere tiene el mismo efecto. Una persona sola en el desierto de Sáhara puede gritar lo que quiera y eso no tiene potencialidad de daño. Pero si dos millones de personas dicen que, en una determinada casa, y mostrando su ubicación, vive alguien que ha agredido sexualmente a niños o niñas indefensos, aunque no se sepa si esa información es verdadera o falsa, se puede producir un daño enorme en la vida real. Lo vimos hace unas semanas en Inglaterra. Fue completamente desproporcionado, incluso si la noticia hubiera sido cierta.
P: Alguna vez dijo que el mundo se divide en dos grupos, los purificadores de internet y quienes piensan que no hay que hacer nada, como pareciera en X.
R: Elon Musk se define a sí mismo como el gran defensor de la libertad de expresión. Pero, en realidad, es el defensor de la libertad de expresión de la gente que piensa igual a él. X dejó de publicar informes de transparencia, pero los que se alcanzaron a publicar permitieron ver que fue mucho más condescendiente con las solicitudes de eliminar contenidos por parte de gobiernos como el de India o Turquía. Twitter se resistía a las demandas que hacían los gobiernos con tendencia más autoritaria; X no. Musk cede ante las solicitudes de los gobiernos autoritarios, pero cuestiona decisiones judiciales que pueden ser buenas o malas y tienen recursos internos en países democráticos. Yo no pondría a X en el extremo de los grandes libertarios. Otra cosa es la Deep Web donde circula todo: pornografía, maltrato animal, violencia contra las personas, venta de armas, de drogas. Luego hay un centro que dice que la información no puede ser eliminada porque sea molesta.
P: Y del otro lado del espectro, los purificadores...
R: Algunas personas piensan que es necesario moderar de forma más robusta. Es difícil de simplificar, porque ahí existen dos corrientes: quienes quieren que en internet solamente se vean gatitos y perritos, y por supuesto eso elimina todas las denuncias de corrupción y las violaciones de derechos humanos, con lo que no estoy de acuerdo. Y también hay gente que lo hace porque quiere eliminar o purificar su propia información, no está interesada en que circule, como han intentado varios políticos en América Latina.
P: Vemos en las redes sociales espacios de disputa entre jefes de Estado y dueños de plataformas, como acaba de pasar con Nicolás Maduro en Venezuela.
R: Para bloquear una plataforma es necesario que existan razones democráticas extraordinariamente fuertes, lo que en derecho se llama “examen estricto de proporcionalidad”. En el caso de Venezuela no hay una democracia, han cerrado 500 medios de comunicación y, solo en el periodo postelectoral, encarcelaron a 12 periodistas. No hay ninguna posibilidad de manifestarse que no sea a través de las redes sociales. En el régimen de Maduro no hay una justicia independiente, ni debido proceso, por lo tanto, no es posible garantizar ese juicio de proporcionalidad.
P: Del otro lado, está el bloqueo de X en Brasil por orden de un juez.
R: Brasil, en cambio, es un Estado democrático con un poder judicial independiente que respeta el debido proceso, aunque, como en cualquier democracia, se puede equivocar. Lo que garantizan las democracias no es que los jueces no cometan errores, sino que apliquen unas garantías. Elon Musk ha debido acudir a los recursos que existen para impugnar una decisión con la que no está de acuerdo. A Twitter le habían pedido una salvaguarda para evitar la desinformación masiva en Brasil. La plataforma la adoptó, pero, cuando Musk la compró, comenzó a tomar decisiones que violan sus propias políticas y restableció las cuentas a personas que han incitado a la violencia y son prófugas de la justicia. Le pusieron una multa y decidió que no la va a cumplir, entrando en un desacato continuado.
P: Este caso genera tensiones entre la libertad de expresión y la necesidad de que las empresas acaten las decisiones.
R: Esa decisión tiene un origen que hay que estudiar y es el desacato de una persona que decide, porque tiene mucho dinero, que puede no cumplir las leyes de un país. Eso es incorrecto. En segundo lugar, esa decisión viene después de que se habían adoptado otras medidas menos gravosas y al final de un procedimiento. En tercer lugar, creo que es una decisión desproporcionada, por lo menos en la parte que prohíbe a los usuarios entrar a través de un VPN [red virtual privada] para evadir el bloqueo, porque cae sobre personas que no han sido sometidas a un debido proceso. Y, finalmente, como afecta a millones de usuarios, también es desproporcionada. La gran pregunta es qué puede hacer un Estado democrático cuando el dueño de una plataforma decide entrar en desacato e incumplir las normas de su propia red, además de las normas democráticas de un país.
P: Ese es precisamente uno de los nueve desafíos que usted mencionó ante la CIDH.
R: El gran desafío es cómo lograr mecanismos de control sobre las plataformas, de manera tal que no se conviertan en instrumentos del poder político, lo que hace X hoy en India, por ejemplo; y que tampoco sean instrumentos guiados exclusivamente por el modelo de negocio o los intereses reputacionales o políticos de los dueños de las plataformas, sino por el derecho internacional de los derechos humanos.
P: ¿Cómo lograr ese propósito?
R: Europa ha creado un sistema normativo muy importante para orientar la gestión de las plataformas, que va más allá de la Ley de Servicios Digitales. Algunos países incluso han adoptado medidas para limitar el poder de mercado de las grandes plataformas, proteger a las fuentes confiables de información, como la prensa profesional, y fomentar el pluralismo. Creo que hay que hacer esfuerzos importantes para aumentar la interoperabilidad, la transparencia y las garantías de debido proceso para los usuarios. Una de las medidas que pueden producir mejores resultados es la creación de auditorías externas con perspectiva de derechos humanos, capaces de evaluar los impactos de las decisiones de diseño en los derechos de las personas, por ejemplo en la salud mental de niñas y niños, en personas con desórdenes alimenticios o, incluso, en el propio sistema democrático.
P: De hecho, también mencionó otros desafíos que hablan del impacto concreto en los derechos humanos. ¿Cuál considera más urgente?
R: Hay que resignificar la protección de datos. ¿Cuáles son los datos que capturan las plataformas? ¿Quién los usa? ¿Para qué y cómo los usa? Eso tiene que ser transparente. Tenemos que volver a hablar del derecho a la privacidad. Con la inmensa cantidad de información que entregamos a las plataformas, no solo de redes sociales sino también a las de salud, transporte o colaborativas, pueden hacer perfiles, investigar o espiar a las personas. ¿Quién tiene el control de esos datos? ¿Cómo se manejan? ¿Cómo se administran?
P: Ahora que todos hablamos de IA, surgen preguntas sobre regulación, creación de deepfakes, sesgos...
R: Los sistemas de inteligencia artificial son capaces de crear un escrito que parece el texto científico más robusto, un vídeo o un audio que parecen reflejar exactamente algo que pasó. La gran preocupación es que esos sistemas, que distorsionan la realidad a partir de datos reales fragmentados y manipulados, tienen por lo menos dos efectos. El primero es que pueden hacer que la gente no crea en nada y se refugie en su sesgo de confirmación, que es lo que buscan las grandes campañas de desinformación. Como todo lo de afuera es mentira, nada es verdad y todas las evidencias son sospechosas, las personas se refugian en sus propios sesgos y se disuelve la confianza, no solamente en los demás, sino en las autoridades y en las fuentes tradicionales.
La confianza es lo que genera la cohesión social que nos permite colaborar para salir adelante como sociedad. Rota la confianza, las sociedades pueden entrar en crisis democráticas enormes. Eso no significa que yo no pueda dudar, ni cuestionar. Lo que significa es que, si hay grandes campañas de desinformación alimentadas por sistemas de IA que hacen imposible distinguir lo que es verdad o mentira, entonces no estamos hablando de un debate con cuestionamientos racionales, sino de hechos y realidades paralelas. Para una democracia, eso es una granada.
P: Y la angustia existencial de no creer en lo que vemos...
R: Esos sistemas evolucionan más rápido de lo que somos capaces como especie. ¿Cómo podemos vivir entonces en un mundo donde no podemos confiar en lo que vemos o percibimos a través de los sentidos? La crisis existencial que puede producir eso es enorme. Es fundamental etiquetar toda la información creada por inteligencia artificial e identificar la que puede no corresponder a la realidad.
P: Este es el presente, pero habla de desafíos del futuro como el de los neuroderechos.
R: Son otro campo de desarrollo que puede capturar reacciones emocionales, datos de la actividad mental de una persona, e incidir sobre procesos cognitivos de forma cada vez más poderosa. A la velocidad a la cual está avanzando esa tecnología, lo recomendable es que existan foros de colaboración entre distintas disciplinas para que, de manera conjunta, se diseñen controles a estos nuevos desarrollos tecnológicos.
Tendencias es un proyecto de EL PAÍS, con el que el diario aspira a abrir una conversación permanente sobre los grandes retos de futuro que afronta nuestra sociedad. La iniciativa está patrocinada por Abertis, Enagás, EY, GroupM, Iberdrola, Iberia, Mapfre, la Organización de Estados Iberoamericanos (OEI), Redeia, y Santander y el partner estratégico Oliver Wyman.
Puedes apuntarte aquí para recibir la newsletter semanal de EL PAÍS Tendencias, todos los martes, de la mano del periodista Javier Sampedro.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
