rawpixel-1054561-unsplash

Cómo Tinder modifica nuestras relaciones

Un nuevo documental explora la forma en que Tinder y las apps de citas están provocando mutaciones en nuestro modo de relacionarnos: Swipe: Citas en la era digital (Swipe: Hooking up in the digital era) estrena en HBO esta semana.

Escuchar a Sean Rad, uno de los fundadores de Tinder y CEO de la compañía durante dos períodos, decir que tomó cursos de gerencia y de psicología para desarrollar mejor su app puede resultar inspirador y tranquilizador. O, quizás, un poco aterrador.

En el documental, Rad se presenta como el creador del botón de swipe en Tinder: gracias a este hijo de una familia de inmigrantes iraníes de Los Ángeles, estamos aceptando o rechazando gente con un solo movimiento de nuestro dedo gordo.

A esta altura se ha vuelto una acción tan usual (Tinder sola registra 1,5 millones diarios de swipes) que parece mentira que alguien la haya diseñado.

Pero el documental no te deja con una idea inspiradora o tranquilizadora sobre las aplicaciones de citas (también OKCupid, Grindr, Bumble, Hinge y, aunque no está mencionada en la película, podríamos incluir a happn): te deja con una idea aterradora.

Lo que a lo largo de 127 minutos muestra la directora Nancy Jo Sales es la escasa profundidad a la que estas apps llevan nuestros noviazgos, las mutaciones que le dieron a lo que entendemos por “cita”, la gamification que generan en las relaciones (y la ludopatía que nos ensombrece), la fugacidad de nuestra atención a otros humanos e incluso cómo evoluciona una nueva dimensión de los asuntos de género (¿existe alguna chica que, en estas apps, no haya recibido nunca la foto –no solicitada– de un pene?).

“Mi opinión es que debemos mirar las intenciones corporativas detrás de estas aplicaciones”, dijo Nancy Jo Sales en una entrevista. Unos 40 millones de estadounidenses pasan en las apps 10 horas cada semana. “Nunca atribuiría ninguna culpa a los usuarios. Veamos cómo esta industria está configurando nuestra cultura y cuáles son los objetivos de la gente que diseña estas plataformas: el objetivo de estas plataformas es lograr que las personas las utilicen tanto como sea posible”.

En Swiped hay entrevistas con varios de los líderes de la industria, con académicos e investigadores, y con muchísimas personas que swipean a diario. En una parte del documental, Jonathan Badeen, uno de los directivos de Tinder, habla con franqueza sobre el modo en que el diseño de la acción de swipe se inspiró, en parte, en un experimento con palomas y granos realizado por el psicólogo conductual B.F. Skinner. El experimento concluyó que si las recompensas de granos no eran predecibles ni regulares, las palomas se quedaban repitiendo y repitiendo la acción que eventualmente podía conducirlas a esas recompensas.

En una entrevista con RED/ACCIÓNDidier Rappaport, el creador de happn, decía que su app no está remoldeando los vínculos. Quizás los protagonistas de la industria no lo puedan vislumbrar, pero lo interesante de Swipe es que reflexiona en torno a todo esto.

Han pasado seis años desde que Tinder apareció y las apps de citas ya ocupan el segundo modo en el que las parejas hetero se conocen (y el primero entre las homo). Todo se ha dado tan rápido que aún nadie logra entender por completo de qué se trata… y qué nos espera en el futuro.


Swipe: Citas en la era digital se puede ver en HBO el lunes 12 de noviembre a las 22:00; el martes 13 a las 20:30; el jueves 15 a las 14:30; y el domingo 18 a las 24:00. También estará desde el lunes 12 de noviembre en HBO Go.


Este artículo fue publicado originalmente en Red/Acción.

Bots, su detección y la participación en las campañas electorales en México

El pasado 21 de junio en el noticiero de Carmen Aristegui se presentó una entrevista con el científico de redes Albert-László Barabási y en un blog de la empresa Maven7us, de la que es socio, apareció una publicación —que se deriva de un estudio inédito hasta la fecha— acerca de la influencia de bots durante la elección presidencial mexicana desde la perspectiva de la ciencia de redes. En su conjunto, el material presentado en el noticiero y en la publicación ofreció las siguientes conclusiones:

  • 53% de más de un millón de cuentas de Twitter analizadas tienen más de 50% de posibilidad de ser bots.
  • Entre 45% y 67% de los seguidores de los candidatos tienen más de 50% de posibilidad de ser bots.
  • Si la conversación en Twitter se limpia de las cuentas identificadas como bots, la conversación es pro-Anaya y en contra de López Obrador.
  • Las cuentas clasificadas como bots son a favor del PRI.

La entrevista de Aristegui ha generado reacciones encontradas, por un lado, seguidores de AMLO han respondido en redes con el hashtag #NoSoyBot para desmentir la afirmación de que más de 60% de los seguidores del candidato son cuentas automatizadas; por otro, la alianza Por México al Frente hizo pública una denuncia contra la campaña de López Obrador por exceder el gasto permitido y destinarlo a la contratación de bots.

Mientras todo esto ocurre, distintos grupos de académicas, académicos y analistas de redes que colaboramos y compartimos herramientas y metodologías (Openlabs, Enjambre Digital y Signa_Lab ITESO) hemos estado atentos y trabajando de manera conjunta en las características y los resultados del artículo en el que se basó el material presentado por Carmen Aristegui.

Este texto tiene por objetivo matizar desde las ciencias sociales y el análisis de redes esos mismos resultados, a la luz de investigaciones y observaciones hechas en el país y de este modo ofrecer una mirada que contribuya al diálogo informado y crítico sobre lo que ocurre en las redes sociodigitales en un proceso tan importante y disputado como la elección presidencial en México.


I

La entrevista publicada por Carmen Aristegui se interrumpe en un punto nodal de la discusión con Barabási, esto es, justamente cuando se le pregunta al científico sobre la posibilidad de que los bots no solo ayuden a un candidato, sino que también sean utilizados para atacar. Esto es muy importante, ya que en México distintos actores y análisis han demostrado en los últimos años que los bots son sobre todo empleados para atacar, principalmente mediante las siguientes estrategias:

  • Crear un trending topic aleatorio para desviar la atención de una tendencia en específico.
  • Atacar a usuarios con un perfil político específico, por medio de la combinación de cuentas automatizadas y el uso de troles, que son cuentas manejadas por humanos con grados muy altos de violencia.
  • Atacar directamente un trending topic con la intención de diluirlo en la conversación general de Twitter.
  • La posibilidad de sumar de manera deliberada bots a la cuenta de un candidato como una estrategia para criticarlo o incluso para disminuir la categoría y el alcance de la cuenta de usuario.

II

El algoritmo Botometer, resultado de la colaboración del Indiana University Network Science Institute (IUNI) y el Center for Complex Networks and Systems Research (CNetS), utilizado por la mayoría de los desarrolladores de apps y sitios que ofrecen la posibilidad de «detectar» la presencia de bots en Twitter, se basa en pautas de evaluación de seis características (features), cada una con un conjunto de variables, que incluyen el análisis del contenido publicado, el análisis de sentimiento, del usuario (datos y metadatos de la cuenta), amigos, rasgos de la red y tiempo.[i] Estas características se ponderan para asignar una evaluación de los patrones de comunicación e interacción de la cuenta, el tipo de actividad (ciclos temporales de publicación de tuits, retuits y los hashtags usados) y el tipo de conectividad en la red que tiene el usuario (las menciones que hace y las que recibe), y así determinar si una cuenta tiene mayor o menor probabilidad de ser bot.

Estos parámetros intervienen a la hora de asignar una alta o baja probabilidad de ser un bot a una cuenta de Twitter; sin embargo, no son concluyentes. Después de algunos años de estudio, se ha observado la evolución de los procesos de automatización y la compleja articulación de estrategias para simular patrones humanos de comportamiento en cuentas automatizadas. Por tanto, afirmar que una cuenta con una probabilidad asignada mayor a 50% por el algoritmo es un bot conlleva un margen de duda, pues existen elementos del comportamiento de los usuarios humanos que llegan a coincidir con los comportamientos de cuentas automatizadas. Por ejemplo, personas que no crean contenido propio y solo retuitean, personas a las que sus empleadores les marcan pautas para postear contenido en redes sociales, de modo que el «denle like» no se vuelve optativo, sino mandatorio; cuentas de asociaciones o colectivos que solo tuitean sus eventos con poca o nula interacción con otras cuentas, o usuarios que crean una cuenta y en menos de un año postean más de veinte mil tuits acerca del tema electoral. Por lo que hacer el corte para afirmar si una cuenta es o no un bot en la probabilidad de 50% no nos parece el criterio más pertinente. Si quisiéramos reducir el margen de error, sugeriríamos situar ese corte en una probabilidad mayor a 80% para poder afirmar con mayor certeza la presencia de cuentas automatizadas. Asumiendo incluso así cierto margen de error. Es decir, cabe la posibilidad de que haya cuentas por debajo de 80% que son bots, así como cuentas por encima del 80% que quizá no lo sean.

En síntesis, podemos asegurar que al día de hoy no hay un consenso acerca de qué intervalo de confianza cabe elegir para asegurar si una cuenta es o no un bot, sin revisar cualitativamente el contenido de la misma. Se pueden correr análisis sobre comportamientos anómalos o extraños, pero además hay que considerar dos dinámicas que ocurren a la par. Por un lado, en la medida en que la sofisticación del machine learning, la inteligencia artificial y otras herramientas de programación avanzan, se hace más difícil identificar cuentas no-humanas que son capaces de sostener niveles de conversación más o menos «naturales» o que simulan un nivel de respuesta «humana». Por otro lado, el uso de muchos usuarios de esta red en no pocas ocasiones tiende a seguir patrones de automatización, esto es, millones de usuarios solo se dedican a dar retuit a los mensajes que están más cerca de sus filias y fobias, lo que hace más susceptible que el algoritmo que busca bots los identifique como cuentas automatizadas y no como personas reales. El panorama de polarización política en un país como México no hace más que acentuar las posibilidades para que este tipo de comportamiento «humanamente automatizado» de respuesta inmediata sea cada vez más frecuente.

El indicador de Botometer es un objeto controvertido y en disputa que puede usarse, de diferentes formas, para filtrar bases de datos y detectar la presencia de bots. Puede utilizarse como una herramienta didáctica que posibilita la discusión sobre estos temas, pero por estas razones resulta arriesgado recurrir solo a este indicador como dato concluyente.

Aunado a lo anterior, un análisis detenido y cualitativo de algunas de las cuentas que cuantitativamente tienen más posibilidades de ser bot, muestran un comportamiento peculiar que da pie a pensar en una nueva categoría entre «la automatización mecánica» y «la automatización humana». Se trata de cuentas que cumplen la tarea tanto de producir contenido como de compartirlo, con un ritmo de publicación muy intenso, que puede alcanzar los miles de tuits en pocos meses, y que en tiempos de competencia electoral y guerra sucia podrían ser atribuibles a personas que se convierten en una suerte de «tecno-artillería política», esto es, perfiles contratados para ser quienes sostengan de forma sistemática el tren de conversación a favor o en contra de uno de los candidatos. Día y noche marcar pauta, sostener un tema, levantar otro, reclutar perfiles, monitorear la conversación en torno a una de las campañas.


III

El análisis presentado en el sitio maven7us.com, referente en la nota y entrevista de Aristegui, muestra resultados numéricos que desde las ciencias de redes y de datos afirman que de acuerdo con los resultados del bot score o «puntuación bot», una cuenta puede ser considerada como automatizada si obtiene más de .5 de probabilidad en la medición. El método no está en duda, sin embargo, dadas las apreciaciones hechas sobre los límites implícitos del script utilizado para llevar a cabo esta medición es posible decir que en un contexto social de usos de la tecnología con líneas cada vez más borrosas entre lo humano y lo automatizado, para poder identificar cuentas con mayor posibilidad de ser bots, desplazar el medidor a el .8 en el bot score sería más adecuado para ofrecer un panorama, que no una afirmación categórica, del volumen de cuentas automatizadas. Cabe agregar que es necesaria también una mirada cualitativa sobre esos primeros resultados y de este modo acercarse aún más a una descripción más fiable sobre el caso.

Frente a este panorama resulta necesario partir de una postura clara: internet no es una sustitución del espacio público ni de las prácticas políticas, sino un escenario de rearticulación de los repertorios comunicativos y políticos. La emergencia de bots sociales, y en particular bots políticos, como estrategia de campaña constituye una muestra de cómo la lucha por los regímenes de verdad y la «producción» de lo político en los entornos digitales ha entrado en una fase marcada por los procesos de automatización.


IV

Podemos mostrar algunos usos locales del script Botometer para contribuir a la discusión sobre los procesos de automatización en las campañas electorales. Un primer caso es el desarrollo de la plataforma Atrapabot, creada con la colaboración del Instituto de Tecnología y Sociedad de Río de Janeiro, AppCivico, Enjambre Digital y Openlabs. Atrapabot es una adaptación de Botometer al español que se plantea como una herramienta didáctica que posibilita el debate público sobre estos temas mediante el análisis de cuentas individuales de Twitter. Con esta herramienta se busca que la ciudadanía pueda tener al alcance un instrumento que le permita explorar las posibilidades de que ciertas cuentas estén simulando comportamientos humanos o la existencia de cuentas puramente automatizadas.

Otro ejemplo es Proton Pack[i], un script de detección de bots desarrollado bajo la coordinación de Luis Guillermo Natera Orozco, por el equipo de Signa_Lab, que, al igual que el utilizado por el Dr. Barabási, está basado en el script Botometer. Este script actúa conectándose a la API de Botometer para enviar, de manera automatizada, todas las cuentas que se quieren analizar y recibir el informe con la probabilidad de ser bot de cada una.

Utilizando Proton Pack, Signa_Lab hizo una prueba para comparar cómo las mismas cuentas de Twitter pueden ser mostradas como bots o como humanas según cómo se decida categorizar la puntuación que obtenga cada cuenta en el bot score. Para ello tomamos una muestra de mil cuatrocientas cincuenta cuentas enlazadas con los cuatro candidatos a la presidencia de México los días 15 al 22 de mayo. A la base de datos se le agregaron dos categorías para la detección de bots, una que marca las cuentas como automatizadas a partir de .5 en el bot score, y otra que lo hace a partir de .8 en la misma escala. La intención de este último ejercicio es la de hacer hincapié en la necesidad de agregar una capa cualitativa a los resultados numéricos mostrados por las técnicas y herramientas para la detección de cuentas automatizadas Los resultados se muestran a continuación:


 

Algunas conclusiones

  • Las metodologías y herramientas (scripts) que se utilizan para establecer la presencia de bots en Twitter no son absolutamente concluyentes, debido a los distintos factores que hemos mencionado.
  • Los bots no actúan ni operan solos, para el éxito de sus estrategias de contaminación de un tema o conversación, llevan trolls, esas cuentas manejadas por humanos que siembran odio, amenazas, burlas o humillaciones con gran efecto emocional sobre sus «blancos» y las cuentas que siguen a estos blancos.
  • Por la razón anterior, en el caso de México un estudio sobre bots no puede estar completo sin un análisis de esas figuras amenazantes; su trabajo es mucho más efectivo o, mejor, se potencia con las miles de cuentas automatizadas que impulsan una tendencia.
  • En términos metodológicos, lo fundamental es acordar (o no, pero mantener una conversación sobre sus implicaciones) el punto del «margen de error» y asumir la enorme dificultad que representa —por los comportamientos no previsibles de los usuarios humanos— establecer el punto de marcación en .5, como hemos mostrado, por debajo del .8 con el que estamos trabajando. Las cuentas en la mira, más que bots, parecen trolls, lo que nos obliga a mejorar esfuerzos metodológicos, triangular los datos y reforzar la observación cualitativa.
  • Hace falta que este tipo de estudios se enmarquen en un espacio de discusión más amplio que incluya diversas voces para contextualizar, matizar y contrastar las evidencias empíricas desde distintas perspectivas y con diversas fuentes. Sería valioso promover a nivel nacional una cultura colaborativa y de datos abiertos que posibilite la replicación de los estudios y la elaboración de informes producidos en nuestros contextos desde posiciones académicas y no únicamente comerciales.

[I] Para más información sobre las características que evalúa el programa se recomienda revisar las siguientes fuentes: Ferrara, E., Varol, O., Davis, C., Menczer, F. & Flammini, A. (2016) The Rise of Social Bots. Communications of the ACM. DOI: 10.1145/2818717.

Varol, O., Ferrara, E., Davis, C., Menczer, F. & Flammini, A. (2017). Online Human-Bot Interactions: Detection, Estimation, and Characterization. arXiv preprint arXiv:1703.03107.

[II] El nombre de la pistola usada en la película de los Caza Fantasmas para capturar a las presencias no deseadas.

 

En portada: Robot Man, photographymontreal, Flickr, dominio público

 

 

 

 

fake-happiness

¿Felicidad? ¡No, gracias!

Si hay una figura que sobresale como el héroe de nuestro tiempo, es Christopher Wylie, un vegano gay canadiense que a los veinticuatro años se le ocurrió una idea que condujo a la creación de Cambridge Analytica, una firma de análisis de datos que asegura haber tenido un papel importante en la campaña por el Fuera en el referéndum británico sobre la membresía a la Unión Europea; más tarde se convirtió en una figura clave de las operaciones digitales de la campaña electoral de Donald Trump al crear la herramienta para la guerra psicológica de Steve Bannon. El plan de Wylie era meterse a Facebook y recolectar perfiles de millones de personas en Estados Unidos y usar su información privada y personal para crear perfiles psicológicos y políticos sofisticados, y después elegirlos como blanco de anuncios políticos diseñados para incidir en composiciones psicológicas particulares. Hasta que, en cierto punto, Wylie estaba genuinamente asustado: «Es una locura. La compañía ha creado perfiles psicológicos de 230 millones de estadounidenses. ¿Y ahora quieren trabajar con el Pentágono? Es como Nixon en esteroides».[I]

Lo que hace tan fascinante a esta historia es que combina elementos que usualmente percibimos como opuestos. La ‘alt-right‘ (derecha alternativa) se presenta a sí misma como un movimiento que atiende las preocupaciones de los trabajadores blancos y profundamente religiosos que defienden valores simples y tradicionales, y que aborrecen a excéntricos corrompidos como los homosexuales y los veganos, pero también a los nerds digitales –y ahora descubrimos que sus triunfos electorales fueron orquestados precisamente por uno de esos nerds que defiende todo a lo que ellos se oponen…–. Hay más que valor anecdótico en este hecho: señala claramente la vacuidad del populismo ‘alt-right‘, que debe depender de los últimos avances tecnológicos para mantener su atracción popular ‘redneck‘. Además desvanece la ilusión de que ser un nerd marginal de computadora automáticamente supone una posición ‘progresista’ y antisistema. En un nivel más básico, una mirada cercana a Cambridge Analytica clarifica que la manipulación y la preocupación por el amor y el bienestar de la humanidad son dos caras de una misma moneda. En «El nuevo complejo militar industrial de la operaciones psicológica de Big Data» que apareció en The New York Review of Books[II], Tamsin Shaw despliega «las compañías parcialmente privadas participan en el desarrollo y despliegue de tecnologías de comportamiento financiadas por gobiernos»; el caso ejemplar es, por supuesto, Cambridge Analytica:

«Dos jóvenes psicólogos son centrales para la historia de Cambridge Analytica. Uno es Michal Kosinski, quien ideó una app con su colega de la Universidad de Cambridge, David Stillwell, para medir rasgos de personalidad analizando ‘likes‘ de Facebook. Después fue usada en colaboración con el Proyecto de Bienestar Mundial, un grupo del Centro de Psicología Positiva de la Universidad de Pensilvania que se especializa en el uso de datos masivos para medir la salud y la felicidad, y así aumentar el bienestar. El otro es Aleksandr Kogan, que también trabaja en el campo de la psicología positiva y ha escrito artículos académicos acerca de la felicidad, la bondad y el amor (de acuerdo con su currículum, uno de sus artículos tempranos se titulaba ‘Por el agujero del conejo: una teoría unificada del amor’). Dirigió el Laboratorio Prosocial y de Bienestar bajo el auspicio del Instituto del Bienestar de la Universidad de Cambridge».

Lo que aquí debe llamar nuestra atención es la «extrañísima intersección de temas como el amor y la bondad con intereses de defensa e inteligencia»: ¿por qué ese tipo de investigación obtiene tanto interés por parte de las agencias de inteligencia británicas y estadounidenses, y de contratistas de defensa, con el ominoso DARPA (la Agencia de Proyectos de Investigación Avanzados de Defensa del gobierno de Estados Unidos) siempre acechando en segundo plano? El investigador que personifica esta intersección es Martin Seligman: en 1998 «fundó el movimiento de psicología positiva, dedicado al estudio de los rasgos psicológicos y hábitos que fomentan la felicidad auténtica y el bienestar, extendiéndose a lo largo de una enorme industria de libros de autoayuda. Al mismo tiempo, su trabajo obtuvo el interés y financiamiento del ejército como parte central de su iniciativa de resiliencia de los soldados».

Así, esta intersección no es impuesta externamente en las ciencias del comportamiento por políticos manipuladores ‘malos’, sino que está implícita en su orientación inmanente: «El objetivo de estos programas no es simplemente analizar nuestros estados mentales subjetivos, sino descubrir formas en las que podemos ser ‘empujados’ en la dirección de nuestro verdadero bienestar, tal y como lo entienden los psicólogos positivos, incluyendo atributos como la resiliencia y el optimismo». El problema, por supuesto, es que este ‘empujar’ no impacta a los individuos en el sentido de hacerlos superar las ‘irracionalidades’ que perciben las investigaciones científicas: en lugar de eso, las ciencias del comportamiento contemporáneas:

«buscan explotar nuestras irracionalidades más que superarlas. Una ciencia que está orientada hacia el desarrollo de tecnología del comportamiento está destinada a vernos como sujetos restringidamente manipulables en lugar de como agentes racionales. Si estas tecnologías están volviéndose el núcleo de las operaciones de ciberinteligencia de Estados Unidos, parece que tendremos que trabajar más duro para impedir que esas tendencias afecten a nuestra vida diaria o nuestra sociedad democrática».

Tras el estallido del escándalo de Cambridge Analytica, todos estos eventos y tendencias fueron cubiertos por los medios masivos liberales, y la imagen que emerge del conjunto, combinada con lo que también sabemos acerca del vínculo entre los últimos avances en biogenética (conexiones del cerebro humano, etcétera), proveen una imagen adecuada y terrorífica de las nuevas formas de control social que hacen que el viejo y buen «totalitarismo» del siglo XX luzca como una máquina de control torpe y bastante primitiva. Para comprender el ámbito completo de este control uno debe ir más allá del vínculo entre corporaciones privadas y partidos políticos (como en el caso de Cambridge Analytica), hacia la compenetración entre las compañías de procesamiento de datos como Google y Facebook y agencias de seguridad nacional –Assange tenía razón en su libro sobre Google extrañamente ignorado[III]–: para entender cómo están reguladas hoy nuestras vidas, y cómo esta regulación es experimentada como libertad, debemos enfocarnos en la relación sombría entre las corporaciones privadas que controlan nuestras comunidades y nuestras agencias estatales de inteligencia. No deberíamos asombrarnos de China sino de nosotros mismos que aceptamos la misma regulación mientras creemos que mantenemos toda nuestra libertad, y que los medios solo nos ayudan a conocer nuestras metas (mientras en China la gente está totalmente al tanto de estar siendo regulada). El mayor logro del nuevo complejo cognitivo-militar es que la opresión directa y obvia ya no es necesaria: los individuos están mucho más controlados y ‘empujados’ en la dirección deseada cuando se sienten agentes libres y autónomos de sus propias vidas… Pero todos estos son datos bien conocidos, y tenemos que dar un paso adelante.

La crítica predominante se desarrolla en forma de desmitificación: bajo el nombre inocente de una investigación en torno a la felicidad y el bienestar, se percibe un complejo de control social y manipulación gigante, oscuro y escondido que es movido por las fuerzas combinadas de las corporaciones privadas y las agencias estatales. Pero lo que también se necesita urgentemente es el movimiento opuesto: en lugar de solo preguntar qué contenido oscuro se esconde bajo la forma de investigación científica respecto a la felicidad, debemos enfocarnos en la forma misma. ¿Es el tema de la investigación científica sobre el bienestar y la felicidad humana (al menos del modo que se practica hoy en día) realmente tan inocente, o ya está en sí mismo permeado por la postura del control y la manipulación? ¿Qué tal si en este caso las ciencias no solo están mal usadas, qué tal si en esto tienen su uso adecuado? Deberíamos cuestionar el surgimiento de una nueva disciplina, ‘estudios de la felicidad’ –¿cómo es que en nuestra era de hedonismo espiritualizado, cuando la meta en la vida se define exactamente como la felicidad, están a la alza la ansiedad y la depresión? –. Es el enigma de este autosabotaje de la felicidad y el placer lo que hacen más actual que nunca el mensaje de Freud.

Como suele ser el caso, Bután, un país en desarrollo del tercer mundo, presagió con ingenuidad las absurdas consecuencias sociopolíticas de esta noción de felicidad: hace dos décadas, el reino de Bután decidió enfocarse en la Felicidad Interna Bruta (FIB) en lugar del Producto Interno Bruto (PIB); fue una idea original del exrey Jigme Singye Wangchuck, quien buscaba conducir a Bután al mundo moderno, mientras preservaba su identidad única. Entonces, con las presiones crecientes de la globalización y el materialismo, y mientras el pequeño país se preparaba para sus primeras elecciones, el inmensamente popular nuevo rey educado en Oxford, Jigme Khesar Namgyel Wangchuck, de veintisiete años, ordenó a una agencia estatal que calculara cuán felices eran las seisientos setenta mil personas del reino. Funcionarios le dijeron que ya habían hecho una encuesta de alrededor de mil personas y habían establecido una lista de parámetros para alcanzar la felicidad –similar al índice de desarrollo que sigue la ONU–. Las principales preocupaciones identificadas fueron el bienestar psicológico, la salud, la educación, el buen gobierno, el nivel de vida, la fortaleza comunitaria y la diversidad ecológica… esto es imperialismo cultural en su máxima expresión.[IV]

Aquí deberíamos arriesgarnos a dar otro paso y aventurarnos en la parte oculta de la noción misma de felicidad –¿cuándo, exactamente, puede una persona decir que es feliz? –. En un país como Checoslovaquia, a finales de los setenta y en los ochenta, de algún modo la gente efectivamente ERA feliz: tres condiciones para la felicidad se cumplían entonces. (1) Sus necesidades materiales estaban básicamente satisfechas – no MUY satisfechas, debido a que el exceso en el consumo en sí mismo puede generar infelicidad–. Es bueno experimentar un poco de escasez en el mercado de vez en cuando (que no haya café un par de días, luego que falte la carne, luego televisiones): estos breves periodos de escasez funcionaban como excepciones que le recordaban a la gente que debían estar contentos de que los bienes estuvieran generalmente disponibles –si todo está disponible todo el tiempo, la gente toma esta disponibilidad como un evidente hecho de la vida y ya no aprecia su buena suerte–. Así la vida iba por un camino regular y predecible, sin grandes esfuerzos ni sorpresas, y uno tenía permitido retirarse a su nicho privado. (2) Una segunda característica extremadamente importante: tenían al Otro (el Partido) a quien culpar por todo lo que salía mal, así que uno no se sentía realmente responsable –si ocurría la escasez temporal de algunos bienes, incluso si el clima tormentoso causaba un gran daño, era ‘su’ culpa–. (3) Y, no menos importante: existía Otro Lugar (el Occidente consumista) sobre el que uno tenía permitido soñar, e incluso visitar en ocasiones –este lugar estaba a la distancia correcta, no muy lejos, no muy cerca–. Este frágil balance se vio perturbado, ¿por quién?, por el deseo, precisamente. El deseo fue la fuerza que convenció a las personas de ir más allá –y acabó en un sistema en el que las grandes mayorías son definitivamente menos felices…–.

Por lo tanto la felicidad es en sí misma (en su preciso concepto, como habría dicho Hegel) confusa, indeterminada, inconsistente –recuerda el respuesta proverbial de un migrante alemán en los Estados Unidos al que, cuando le preguntaron «¿Es usted feliz?», respondió «Sí, sí, estoy muy feliz, aber gluecklich bin ich nicht… (pero feliz no soy)» –. Es una categoría pagana: para los paganos la meta en la vida era tener una vida feliz (la idea de «ser felices para siempre» es ya una versión cristianizada del paganismo), y la experiencia religiosa o la actividad política en sí mismas están consideradas las formas más altas de la felicidad (ver Aristóteles) –no es una sorpresa que el Dalai Lama tenga tanto éxito recientemente recitando el evangelio de la felicidad, y tampoco es una sorpresa que precisamente sea en Estados Unidos donde haya obtenido más atención este último imperio de (la búsqueda de) la felicidad…–. La felicidad depende de la falta de habilidad y preparación del sujeto para confrontar las consecuencias de su deseo: el precio de la felicidad es que el sujeto permanezca atrapado en la inconsistencia de su deseo. En nuestras vidas diarias deseamos (pretendemos hacerlo) cosas que realmente no deseamos, así que, finalmente, lo peor que puede suceder es que OBTENGAMOS lo que «oficialmente» deseamos. Por ello, la felicidad es inherentemente hipócrita: es la felicidad de soñar con cosas que en realidad no queremos.

¿No encontramos un gesto similar en muchas políticas de izquierda? Cuando un partido de izquierda radical pierde por poco las elecciones y la oportunidad de hacerse con el poder, uno puede detectar un suspiro de alivio escondido: gracias a Dios perdimos, quién sabe qué clase de problemas habríamos tenido si hubiésemos ganado… En el Reino Unido muchos izquierdistas admiten que la cercanía de la victoria del Partido Laborista en las pasadas elecciones fue lo mejor que pudo suceder, mucho mejor que la incertidumbre sobre lo que habría pasado si los laboristas hubieran intentado implementar su programa. Lo mismo puede decirse de la perspectiva de una eventual victoria de Bernie Sanders: ¿cuál habría sido su fortaleza ante los embates del gran capital? La madre de todos esos gestos fue la intervención de la Unión Soviética en Checoslovaquia, que aplastó a la Primavera de Praga y su esperanza de un socialismo democrático. Imaginemos la situación en Checoslovaquia sin la intervención soviética: muy pronto los ‘reformistas’ habrían tenido que enfrentarse al hecho de que en ese momento histórico no era posible el socialismo democrático, entonces habrían tenido que escoger entre reafirmar el control del partido –i.e. poner un límite claro a las libertades– o dejar que Checoslovaquia se convirtiera en una democracia liberal capitalista. De cierto modo, la intervención soviética rescató a la Primavera de Praga –rescató a la Primavera de Praga como sueño, como una esperanza que, sin su intervención, podría haberse convertido en una nueva forma de socialismo democrático…–. ¿Y no ocurrió algo similar en Grecia cuando el gobierno de Syriza organizó el referéndum contra las presiones de Bruselas para aceptar las políticas de austeridad? Muchas fuentes internas confirman que el gobierno secretamente tenía esperanzas de perder el referéndum, en cuyo caso habría tenido que abandonar el poder y dejar a otros encargarse del trabajo sucio de la austeridad. Como ganaron, la tarea recayó en ellos mismos, y el resultado fue la autodestrucción de la izquierda radical de Grecia… Sin duda alguna Syriza habría sido mucho más feliz si hubiera perdido el referéndum.

Así que, de vuelta al punto de inicio, no solo estamos controlados y manipulados, la gente «feliz», secreta e hipócritamente, exige ser manipulada por su propio bien. La verdad y la felicidad no van de la mano –la verdad duele, trae consigo inestabilidad, arruina el transcurso tranquilo de nuestras vidas–. La elección es nuestra: ¿queremos ser felizmente manipulados o exponernos a los riesgos de la creatividad auténtica?


Traducción: Víctor Santana

Publicado originalmente en https://thephilosophicalsalon.com/happiness-no-thanks/


[I]  Ver: https://www.theguardian.com/news/2018/mar/17/data-war-whistleblower-christopher-wylie-faceook-nix-bannon-trump.

[II]  Todas las citas son de https://www.nybooks.com/daily/2018/03/21/the-digital-military-industrial-complex/?utm_medium=email&utm_campaign=NYR%20Wolves%20Orban%20Cambridge%20Analytica&utm_content=NYR%20Wolves%20Orban%20Cambridg%20Analytica+CID_54761ca178aa65ea5c4a4410b9616c02&utm_source=Newsletter&utm_term=The%20New%20Military-Industrial%20Complex%20of%20Big%20Data%20Psy-Ops

[III]  Ver Julian Assange, When Google Met WikiLeaks, Nueva York: OR Books, 2014.

[IV]  Ver  Bhutan tries to measure happiness”, ABC News, 24 de Marzo de 2008.

487463495

Candidatos independientes, brecha digital y ciberseguridad

Hace un par de meses comenzó a correr el tiempo para que los aspirantes a candidaturas independientes consigan en al menos diecisiete estados del país las ochocientas mil firmas que les permitirán aparecer en la boleta de la elección presidencial del próximo año. Más allá de la cantidad de candidatos independientes o del número de firmas requeridas, lo que llama la atención es la forma en que estas tienen que ser recabadas: usando una aplicación para teléfonos móviles inteligentes.

Esta medida, aunque en primera instancia podría parecer lógica y vanguardista, deja de lado algunas consideraciones que potencialmente terminan por excluir a un número importante de mexicanos, en especial de los sectores vulnerables. Una de esas consideraciones es la brecha digital que existe en el país, es decir, la cantidad de usuarios —y sus características demográficas— que cuentan con acceso a las tecnologías digitales (internet, telefonía móvil, radio y televisión) y cómo este acceso impacta en el desarrollo de sus comunidades.

En México la brecha digital sigue existiendo, ya que, de acuerdo con datos de la Unión Internacional de Telecomunicaciones analizados a detalle por José Merino para Horizontal, en 2015 solo 57.4% de los mexicanos contaban con acceso a internet. Este número, si bien es un poco más alto que el promedio mundial, no tiene en cuenta otros segmentos en los que la brecha es aún mayor: los mexicanos con menores ingresos, los que cuentan con menor escolaridad y los mayores de cuarenta y cinco años.

Además, estos números varían dramáticamente dependiendo del estado de la República: Chiapas, Oaxaca, Tabasco, Guerrero y Tlaxcala son los cinco estados con mayor porcentaje de personas sin conexión (86.9% de las personas en Chiapas y 76% en Tlaxcala no cuentan con conexión), mientras que la Ciudad de México, Nuevo León, Baja California Sur, Sonora y Baja California son las cinco entidades más conectadas.

Si seguimos estos datos, por ejemplo, es muy probable que una mujer chiapaneca, mayor de cuarenta y cinco años, con niveles bajos de escolaridad e ingresos no cuente con conexión a internet. Por desgracia, esas características no son poco comunes: millones y millones de mexicanos las cumplen de una u otra forma.

Como puede verse, en México existe desigualdad en el acceso a herramientas digitales y a internet. Esto, que por sí mismo es alarmante, lo es aún más cuando observamos la tendencia a utilizar herramientas digitales para permitir el ejercicio de algunos derechos fundamentales para la democracia, lo que podría traer como consecuencia que las personas menos privilegiadas tuvieran aún menos posibilidades de participar en los procesos democráticos, mientras que para las personas más privilegiadas sucede lo contrario.

El efecto de la brecha digital en este proceso es poco esperanzador: es muy probable que los candidatos independientes que tengan mayor representación en zonas urbanas y cuyos simpatizantes sean más jóvenes, y con mayores recursos económicos, logren de manera más sencilla el registro para aparecer en la boleta del 2018 y esto podría ser resultado solo del sesgo producido por la brecha digital.

En términos concretos, el uso de soluciones digitales podría dejar fuera, sin lugar a dudas, a grupos enteros de mexicanos que no cuentan con acceso. Esto también deja al descubierto los sesgos que existen en la toma de decisiones de política pública y cómo al usar la tecnología estamos alejándonos de los ideales de equidad e igualdad que, en teoría, rigen nuestro sistema democrático.

Lamentablemente, las secuelas de esta política van más allá de la brecha digital, pues usar un sistema digital como el que implementó el INE abre la puerta a ataques cuyo objetivo sea influir de forma artificial los resultados de elecciones. Estos ataques van desde el uso de medios digitales para desinformar al público, como sucedió en Kenya en 2017, hasta el hackeo de las máquinas de votación, tal como sucedió en las elecciones presidenciales de Estados Unidos en 2016, y como se demostró en Defcon 2017, la conferencia de hacking más grande del mundo, por nombrar solo algunos ejemplos. Intentar influir una elección utilizando los medios digitales es una tendencia mundial y, por supuesto, México no está exento de enfrentarse a este problema.

Las formas en que esto pudiera ocurrir son múltiples y varían en nivel de complejidad, pero en el caso de la aplicación para recabar firmas para los candidatos independientes, basta con decir que, por ejemplo, hacer ingeniería inversa de una aplicación móvil para poder saber las conexiones que realiza no es algo en exceso complicado y un hacker con la motivación suficiente puede lograrlo con relativa rapidez. Ante esta posibilidad queda preguntarnos si el INE invirtió los recursos necesarios para llevar a cabo, mediante terceros independientes, las pruebas de penetración, auditoría de código y servidores y, en dado caso, acotar las superficies de ataque en distintos modelos de amenaza.

Si no fue así —y el INE debería ser abierto en este sentido— la validez del proceso podría llegar a estar en duda por motivos técnicos.

Hablando de transparencia y de rendición de cuentas, el empleo de soluciones digitales plantea retos fuertes para la democracia moderna porque, de entrada, no hay ningún sistema digital cien por ciento seguro y, además, su uso elimina el rastro «en papel» que sí se abandona al usar los sistemas electorales tradicionales. Incidentes recientes existen: el ya mencionado caso de Estados Unidos en las elecciones del 2016; y en Argentina, donde expertos en seguridad digital han advertido al gobierno acerca de la implementación del voto electrónico tras haber demostrado distintas vulnerabilidades.

Al final de cuentas, aunque suene anacrónico, la boleta en papel también actúa como un respaldo que puede ser auditado por cualquier persona, dando validez, boleta por boleta, a los resultados.

En resumen, al haber implementado una solución tecnológica el INE dejó vulnerable, en tres distintos frentes, a un proceso fundamental para la democracia mexicana: ignorar las consecuencias de la brecha digital pone fuera a muchísimos mexicanos; no procurar, mediante pruebas independientes, que los sistemas informáticos y el propio proceso sean seguros reduce de forma drástica la confianza; y, por último, eliminar el rastro «en papel» también elimina el respaldo físico de este proceso y, por ende, pone en duda su validez.

 

La comunidad extendida

En dónde estamos

(Parte 1)

El insomnio de la razón neoliberal produce monstruos digitales. La feroz matematización de la vida (Berardi 2012) comenzó hace mucho tiempo, desde que los humanos asignaron números a cada hora del día y a cada año de sus vidas (Marcuse 2010). Hoy, sin embargo, la digitalización de todos los ámbitos de nuestra existencia y coexistencia con otros se ha convertido en una realidad sofocante. Gracias a la computabilidad total los números se han convertido en verdades inapelables, conformando así la hegemonía de lo abstracto, que colapsa contextos y erosiona los lenguajes humanos al imponer sobre ellos reglas combinatorias, conectivas y operativas que los vuelven eficientes y funcionales, y los transforman en masas de datos crudos para alimentar transacciones financieras. Es precisamente sobre este escenario donde tiene lugar la literatura electrónica. Y es precisamente entre la densidad en apariencia intangible de esta creciente abstracción donde nos encontramos como comunidad de escribientes electrónicos. No obstante, la abstracción, o desmaterialización, a menudo identificada de modo erróneo como la esencia de lo digital, encuentra su contradicción en una materialidad exacerbada que, paradójicamente, esquiva nuestra percepción de forma constante. Aquello que se suele describir como inmaterial, de manera más bien miope o ingenua, no es más que la manifestación final de complejos ensamblajes de todo tipo de materiales, escondidos detrás de un pesado velo de nubes.

Y esas nubes dejan un sabor metálico en la boca: 36% de todo el estaño, 25% de todo el cobalto, 15% de todo el paladio, 15% de toda la plata, 9% de todo el oro, 2% de todo el cobre y 1% de todo el aluminio que se produce cada año en el mundo se utiliza en la fabricación de nuestros dispositivos electrónicos (Parikka 2014). Un smartphone común y corriente, por ejemplo, contiene 13.7 gramos de cobre, 0.189 de plata, 0.028 de oro y 0.014 de paladio por cada 100 gramos, además de otros minerales importantes como cobalto, litio, níquel, estaño, zinc, cromo, tántalo y cadmio.[I] Hay que decirlo: la minería está pasando por nuevos momentos de gloria gracias, en parte, a nuestra insaciable hambre de dispositivos digitales y gracias, también en parte, a la manera en la que ahora escribimos, leemos y programamos. Al hacer clic aquí se extraen de allí, de las profundidades de la corteza terrestre, grandes cantidades de minerales.

Pero hemos de decir también que la industria minera global no puede reconocerse por sus buenas prácticas. Veamos dos ejemplos.

En The Looting Machine, el periodista Tom Burgis traza los senderos increíblemente oscuros y torcidos de la minería en África: «Las milicias y el ejército congoleños controlan directamente algunas de las operaciones mineras, y de otras extraen impuestos y tasas de protección. Los oficiales corruptos facilitan el comercio. Los comptoirs, o casas comerciales de Goma, en la frontera con Rwanda, orquestan el flujo tanto de las exportaciones de minerales oficialmente declaradas, como de los cargamentos con contrabando. Otras rutas ilícitas recorren caminos que parten directamente desde las minas que se encuentran al otro lado de las fronteras con Rwanda y Uganda. Investigadores de la ONU han documentado cómo las compañías europeas y asiáticas adquieren minerales saqueados del Congo. Una vez que dichos minerales han salido de ese país, resulta sencillo refinarlos, y vender el oro, estaño o tántalo a los fabricantes. El camino podrá ser tortuoso, pero lleva desde el corazón de la guerra en el Congo hasta cualquier lugar del mundo donde haya ordenadores portátiles o teléfonos móviles» (Burgis 2015, 33).

Mientras tanto, en México, el país donde nací, los productos químicos usados en las operaciones mineras contaminan fuentes vitales de agua, generando problemas de salud en 70% de la población expuesta (Centro de Derechos Humanos Miguel Agustín Pro Juárez 2014). Pero la minería no solo afecta la salud de humanos y ecosistemas, sino que también puede considerarse como un verdadero ariete del neocolonialismo, ya que erosiona la economía del país. A partir del Tratado de Libre Comercio de América del Norte y las sucesivas reformas hechas al artículo 27 de la Constitución mexicana (Guillén 2014), la actividad de las compañías mineras extranjeras se ha intensificado enormemente, trayendo consigo un pillaje sin precedentes. Según los datos recabados por la Red Mexicana de Afectados por la Minería (REMA), desde que el tratado de Libre Comercio entró en vigor en los años noventa, se han extraído del suelo mexicano cuatrocientas toneladas de oro: casi tres veces más de lo que se extrajo en trescientos años de dominación colonial española. Este enorme expolio ha beneficiado en particular a compañías canadienses y estadounidenses, en cuyo poder está casi 85% de todas las concesiones mineras privadas y que, por ello, constituyen un monopolio binacional. Pero resulta en especial grave constatar que mientras que los impuestos que dichas compañías pagan al gobierno mexicano representan menos de 1% de sus beneficios, es el propio gobierno quien protege este saqueo, movilizando fuerzas militares y policiales para garantizar la integridad de los intereses de las compañías extranjeras, ante la resistencia activa de las comunidades afectadas (Centro de Derechos Humanos Miguel Agustín Pro Juárez 2014).


CO2GLE, de Joana Moll: http://www.janavirgin.com/CO2/

Nuestra comunidad extendida

Pero estas cuestiones, ¿qué significan para nosotros que formamos parte de una comunidad dedicada a la literatura electrónica? ¿Qué sentido deberíamos darle a este apabullante y complejo estado de cosas que a pesar de parecer lejanas nos oprimen de punta a punta? Mientras nos juntamos hoy, aquí, las nubes también se juntan, tal como lo advierte la poeta JR Carpenter[II] en su trabajo The Gathering Cloud. Las nubes cambian de forma, transformándose, de alegoría y metáfora, en la nubosidad concreta y respirable de las emisiones de combustibles fósiles. La artista Joana Moll nos lo recuerda en su pieza CO2GLE[III]: el acto en apariencia inocuo de navegar por la nube digital produce como resultado cantidades considerables de gases de efecto invernadero, emitidas por granjas de servidores situadas en diferentes puntos del planeta. Así que, ¿cómo hemos de conectar la degradación de los ecosistemas de la tierra y el aire, provocada por las industrias extractivas en el Congo, México y tantos otros países, así como por nuestra cotidiana actividad online, con la literatura electrónica? Exploremos juntos estas interconexiones.

Pero quisiera empezar con una advertencia: esta exploración no será un ejercicio de culpabilidad autodestructiva. Sería absurdo afirmar que el daño provocado por la minería y la quema de combustibles fósiles es un efecto directo de nuestro creciente consumo de energía y artefactos electrónicos y que, por ende, somos los culpables. En efecto, jugamos un papel activo en este maremágnum de destrucción y ecocidio; sin embargo, el sistema está demasiado enmarañado como para permitir establecer causalidades de forma determinista. Las diversas fuentes de los materiales usados en la manufactura de nuestros dispositivos, por ejemplo, son notoriamente difíciles de rastrear. Tratar de hacerlo implicaría una investigación profunda y, en ciertos casos, hasta peligrosa. Por ello, no podemos saber a ciencia cierta de dónde proviene el oro que da forma a los circuitos de nuestro teléfono. Y, por si el saqueo de la tierra no fuera suficiente, hay también otras nubes negras en el cielo digital: el sufrimiento suicida de los trabajadores que ensamblan componentes electrónicos en Asia en condiciones de esclavitud, o la alarmante intoxicación de nuestro entorno tecnológico debida a prácticas abusivas, ejercidas tanto por gobiernos como por empresas, tales como la vigilancia digital encubierta, la manipulación psicológica masiva a través de las redes sociales, o la mercantilización indiscriminada de nuestros datos. Sí, exigimos justicia. Pero también necesitamos seguir caminando, y para esto debemos deshacernos del lastre de la culpabilidad.

En segundo lugar, evitaré el camino fácil que lleva a la condena total de las tecnologías electrónicas. Revivir el nihilismo de los ludditas no es posible ni deseable. Creo que no deberíamos caer en dicotomías reduccionistas, como el bien contra el mal, o el amor contra el odio. Quiero adelantar, en cambio, que la ruta del otro camino que estamos por tomar pasa por un entendimiento distinto, mucho más matizado, de la tecnología. Por esto, mi intención es la de proponer y discutir ciertas cuestiones que tal vez nos permitan ir más allá de los enmarañamientos paralizantes: la cuestión de la contención, la del cultivo de una conciencia farmacológica de la tecnología, y la cuestión del estar juntos.

En este texto exploraré estas cuestiones desde el punto de vista de la comunidad. Se ha vuelto muy frecuente encontrar la noción de comunidad invocada de manera acrítica, como una especie de bálsamo purificador que limpia incluso entornos tan contaminados como la mercadotecnia o el sector financiero. Y por ese motivo debemos ser cuidadosos: justo por este abuso de la noción de comunidad corremos el riesgo de asumir que sabemos qué significa. Pero, ¿qué es una comunidad? O quizá podemos plantear una pregunta más interesante: ¿qué modos de existencia se vuelven pensables y posibles gracias a la comunidad?

De todas las posibles definiciones de comunidad la que prefiero es aquella que propone que una comunidad está formada por un grupo de personas que comparten un conjunto común de símbolos, pero no necesariamente de significados (Cohen, 1985). En contraste con otras nociones enfocadas en las estructuras e instituciones sociales, encuentro que la perspectiva simbólica nos permite pensar en las comunidades como espacios de intercambio en transformación permanente. Según esta definición, los miembros de una comunidad llegan a acuerdos en torno a símbolos comunes, pero no es estrictamente necesario que estén de acuerdo en lo que esos símbolos significan. De esta forma, el desacoplamiento entre símbolo y significado abre la vía de la heterogeneidad, puesto que admite la existencia de comunidades formadas por individuos con puntos de vista contrastantes e incluso antagónicos, pero que, a pesar de ello, se encuentran vinculados por acuerdos mutuos que deben ser renovados constantemente. Nosotros, como comunidad, nos reunimos de forma periódica para cuidar de los símbolos que tenemos en común. También discutimos sobre sus significados y podemos estar en desacuerdo sin que nuestro cuerpo común se desintegre.

Sin embargo, esta definición de comunidad implica que las fronteras de una comunidad están, a su vez, delimitadas por los mismos símbolos que sus miembros comparten. Aquellos que están del otro lado de ese muro simbólico quedan, por lo tanto, excluidos. Y creo que es necesario cuestionar esta forma de aislamiento que se vuelve, al mismo tiempo, un símbolo de identidad, ya que corremos el riesgo de convertirla en una barrera que impida extender nuestros afectos más allá de la comunidad inmediata. Pero, en tiempos de catástrofes sociales y ecológicas interconectadas, ¿cómo pueden las comunidades ir más allá de sus fronteras simbólicas para crear vínculos significativos y solidarios con quienes están afuera? Los símbolos que compartimos, como miembros de la comunidad de lectoescritores electrónicos, no son siquiera accesibles a los chicos obligados, a punta de metralleta, a descender por los túneles de las minas de Katanga, al oriente del Congo. No obstante, cargamos los frutos de su trabajo en nuestros bolsillos. ¿Cómo podemos incluirlos, a ellos, no como meros símbolos, sino como camaradas? ¿Podemos imaginar una comunidad extendida en la que el cuidado y la coexistencia no tengan que cruzar una frontera simbólica? Para pensar la comunidad extendida debemos empezar por plantearnos preguntas: ¿quién vuelve a quién capaz de hacer qué y a qué precio? ¿Quiénes son esas presencias invisibles que, calladamente, hacen posible nuestra comunidad, nuestro trabajo? ¿Son todas ellas humanas? ¿Dónde debemos dibujar los límites que definen quién será incluido y quién no? ¿Contaremos a los mineros entre los nuestros? ¿A las minas? ¿A los minerales? ¿Y es que acaso debe existir una frontera? ¿Y cuáles serán los acuerdos mutuos que mantendrán unida a la comunidad extendida?

Demasiadas preguntas. Se han acumulado y son un peso muy grande. Permítanme ahora intentar desempacar el cargamento.


 

El 27 || The 27th, de Eugenio Tisselli: http://motorhueso.net/27/

La contención y sus malestares

La contención, e incluso la renuncia a producir y consumir literatura electrónica, puede ser una alternativa ética que, a pesar de ser en esencia una elección individual, puede tener repercusiones a nivel comunitario. La vía que tomé hace algunos años fue la del retraimiento, y aquí quisiera comentar de manera breve esta experiencia.

En 2011 me impactó profundamente conocer las condiciones humanas y ecológicas bajo las que se producían las computadoras y los teléfonos móviles, así que tomé una decisión personal: pondría mi propio trabajo como productor de literatura digital en pausa, antes que continuar contribuyendo ciegamente con tal destrucción. Comuniqué mi decisión a la comunidad de literatura electrónica, y escribí: «Al día de hoy he decidido, temporalmente, dejar de crear nuevas piezas de literatura electrónica. Siento que las cuestiones que rodean a la creación artística con medios electrónicos son demasiado importantes como para ser ignoradas. Y así, hago un llamado a una investigación verdaderamente transdisciplinaria y multisectorial sobre literatura electrónica. Una investigación que no ignore los contextos sociales, culturales y económicos que actualmente están siendo destruidos sólo para que nuestras herramientas digitales sigan estando a la mano. Pienso específicamente en África, y en muchos otros lugares alrededor del mundo en los que la tierra se arrebata a los pueblos para ser explotada, condenando a sociedades enteras al sufrimiento para que nosotros, los privilegiados, podamos seguir conectados (Tisselli 2011)».

Mi horror ante los efectos destructivos de nuestro apetito por los artefactos electrónicos se vio amplificado tras una visita a una comunidad en Tanzania que sufría los efectos de prácticas mineras irresponsables: aguas contaminadas con arsénico, plantas y animales muertos, personas con extrema resequedad en la piel y otras enfermedades antes desconocidas. Al ver todo esto, escribí desesperado la nota de tintes melodramáticos de la cual extraje el fragmento antes citado, y la publiqué impulsivamente en mi perfil de Facebook. Mi intención era la de abrir una discusión sobre temas que me parecían gravemente ausentes en nuestros artículos, conferencias y festivales. Pero, muy pronto, mi gesto fue criticado, y no sin razón. Por ejemplo, Lisa Swanstrom escribió en su artículo «The Peripheral Future»: «No conozco a Eugenio Tisselli, pero recuerdo haberme sentido, en partes iguales, impresionada por la convicción de su posición, e irritada por la impotencia que ésta,  a su vez, insinuaba. Me pareció que la renuncia de Tisselli no era un acto de desafío artístico, sino más bien un gesto de capitulación ante la propia estética de borradura que él pretendía criticar» (Swanstrom 2016).

Debo admitir que Lisa tenía razón sobre la futilidad de mi contención radical. No tuve que esperar mucho para sentir que las contradicciones de mi gesto se convertían en fuerzas que me tiraban por dentro. Aunque mi decisión de dejar de crear piezas de literatura electrónica estaba más emparentada con el «preferiría no hacerlo» de Bartleby que con la derrota, pronto sentí la necesidad de ir más allá de la parálisis para deshacer el nudo, para resolver, o al menos entender mejor, la paradoja en la cual me hallaba inmerso. Necesitaba romper la máquina para verla tal como era; para examinar, siguiendo a Heidegger, su estar-allí. Así que emprendí una investigación minuciosa sobre el enigma de la tecnología. Ahora, después de seis años, debo decir que mi búsqueda está todavía muy lejos de su meta, y es casi seguro que nunca la alcanzaré. Aun así, mis preguntas ya han dado algunos frutos, que ahora comparto con ustedes.


 

El pharmakon

En años recientes he ido desviándome de la vía de la contención para tomar otra, mucho más fructífera. Siguiendo las teorías de Bernard Stiegler, intento cultivar una actitud farmacológica con respecto a la tecnología. Según Stiegler, estamos atravesando una crisis con muchas caras y capas, provocada en gran medida por el colapso en las relaciones entre tecnología y sociedad. El efecto de dicha crisis produce, en numerosos casos, una conciencia farmacológica gracias a la cual podemos darnos cuenta de la naturaleza tóxica de la tecnología (Stiegler 2015). Esta conciencia se vuelve cada vez más aguda y generalizada y, eventualmente, debería generar una actitud farmacológica en la que en vez de adaptarnos a un entorno tecnológico, pudiéramos ser capaces de adoptarlo. A menudo sentimos que el requerimiento de adaptarnos a una gama cada vez más grande y variada de tecnologías es una imposición. Stiegler argumenta que cuando yo me adapto a una tecnología, me proletarizo, es decir, pierdo de manera progresiva mi autonomía y mis habilidades, tanto físicas como cognitivas, al delegar aspectos significativos de mi existencia a las maquinaciones oscuras de las cajas negras tecnológicas (Stiegler 2015). Pero más que el simple rechazo a este aspecto de la tecnología, puedo revertir sus efectos proletarizantes adoptándola, esto es, haciéndome uno con la herida que ella inflige, al reconocer que la tecnología es la herida humana. Así, cuando nos rehusamos a adaptarnos a la religión tóxica de Silicon Valley, cuando saltamos sobre el racionalismo social empobrecido de Facebook, cuando desmantelamos las cajas negras de Google, producimos bifurcaciones: aprendemos verdaderamente a vivir con lo digital: no en contra, sino con, pero de otra manera. Adoptamos (o, si se prefiere, hackeamos) las tecnologías para coexistir con ellas, pero de formas distintas, mucho más íntimas y relevantes, resonantes con nuestras aspiraciones y deseos. Y, sobre todo, el cultivo de una actitud farmacológica en esta era digital implica emprender un camino tanto intelectual como práctico en busca de la dosis adecuada. Tal como la farmacología estudia la interacción entre el fármaco y el organismo, la farmacología tecnológica investiga cómo los artefactos tecnológicos curan o dañan nuestros cuerpos, mentes y almas individuales y colectivas. Un fármaco es, de manera simultánea, lo que nos permite cuidar y curar, así como aquello de lo que debemos cuidarnos. Es un poder que sana en la misma medida que destruye, y el umbral entre un potencial y otro está encapsulado en la noción de dosis. Por lo tanto, una actitud farmacológica es una pregunta permanente y constante acerca de la justa dosis de tecnología que necesitamos para vivir, sin caer en el daño, la enfermedad y la muerte por sobredosis. Debemos encontrar la dosificación correcta que requerimos para cuidar de nosotros mismos y de nuestra comunidad, tanto la inmediata como la extendida, a la vez que evitamos la dosis por encima de la cual nos volvemos ciegos a nuestro propio dolor, ciegos al dolor de los otros.

Vivir nuestras vidas en un balance tecnológico. Hacer-maquinar solo lo suficiente, solo lo necesario. Desacelerar.


 

Coexistencia

Pero no hay una dosis correcta: no existe una medida universalmente válida que pueda regular el uso o la abstinencia tecnológica. La dosis, en todo caso, siempre estará relacionada con el plano de existencia sobre el cual estemos parados, así como con los ecosistemas –los inmediatos y los remotos– con los que estemos interconectados. Por esta razón sugiero que nuestra capacidad de trazar conexiones de causalidad dentro de un plano de existencia, y entre muchos distintos, es una habilidad crucial que tendremos que desarrollar si deseamos seguir el camino del pharmakon para tender lazos de solidaridad con nuestra comunidad extendida. Creo que es precisamente esta habilidad humana lo que puede volver evidentes las dosis y los umbrales.

La noción de que todo está conectado carece de significado y se ha convertido en uno de los tópicos más vacíos y manipulados de nuestra época. ¿De verdad hemos de asumir que hay, por defecto, conexiones entre todas las cosas del universo, y por ello simplemente darlas por sentado? Yo creo que no. Tal como Graham Harman lo planteó, todo no está conectado puesto que las cosas, de hecho, se retraen unas de otras, y tienden a evitar el contacto (Harman 2013). Siguiendo este hilo, podemos llegar a afirmar que más que hechos evidentes, el contacto, la interconexión y la coexistencia entre las cosas (es decir, los seres humanos y no-humanos, animados e inanimados) son fenómenos raros que necesitan ser entendidos y explicados. Cosas tales como una mina de oro y un poema electrónico se encuentran aparentemente desconectadas entre sí, cada una de ellas inmersa en su propia burbuja de realidad, cada una flotando en planos y contextos que parecen distantes e inconexos. Podríamos ser perezosos y asumir que sí: que de alguna forma estas dos cosas están interconectadas. ¿Pero cómo exactamente? Tal vez hagan contacto, en efecto, pero necesitamos hacer el esfuerzo de trazar los hilos causales y relacionales entre ellas, y reconocer las otras muchas cosas que existen y coexisten a lo largo de esos hilos. Explicar, es decir, desenmarañar. No hacerlo sería la verdadera capitulación, la rendición final bajo la venda proletarizante que nos tapa los ojos.

Explicar la interconexión: este es quizá el marco intelectual y práctico que esta época nos exige.


Duelo a garrotazos, de Francisco de Goya y Lucientes. Vemos a dos hombres luchando a muerte, y no podemos saber quién será el vencedor. La única certeza es que ambos acabarán por ahogarse en las arenas movedizas. La naturaleza entra en la historia: no como mero escenario, sino como agente.

En dónde estamos

(Parte 2)

Pero, ¿qué época es esta? ¿Y qué sentido íntimo podemos darle a sus múltiples complejidades? Según los geólogos Paul Crutzen y Eugene Stormer, la Tierra ha entrado en una nueva era geológica: la era del Antropoceno, en la cual la agencia humana se convierte en una fuerza tectónica (Steffen et al. 2011). El Antropoceno, que se supone comenzó a la par que la Revolución Industrial, se caracteriza por transformaciones incrementales y acumulativas a nivel planetario que, sin embargo, suceden a una velocidad inusitada, como el cambio climático o la sexta extinción masiva. Hay, no obstante, opiniones contrastantes respecto a la precisión y la pertinencia del término Antropoceno, “la era del hombre”. Dichas diferencias no son meros matices lingüísticos, sino que revelan el enorme enmarañamiento conceptual que caracteriza, también, a esta época, y que nos obliga a examinar de forma minuciosa y profunda la convergencia de procesos, fuerzas y eventos interconectados que nos han traído hasta donde estamos. Stiegler, por ejemplo, habla del Entropoceno: la era de la entropía, fruto de una lectura hecha desde la termodinámica de la creciente automatización industrial originada por el taylorismo. En el Entropoceno la tecnología juega un papel paradójico que es, empero, coherente con su caracterización como pharmakon: es tanto un acelerador de la entropía, simbolizada por la tendencia hacia la automatización completa y generalizada, como un medio para amplificar la neguentropía, es decir, el proceso de negación de la entropía, que es equiparable a la propia producción de la vida. Stiegler sugiere que la vía de escape del Entropoceno será el Negantropoceno (en clave trabalenguas: la negación de la entropía antrópica), una era en la cual el tiempo liberado por la automatización del trabajo será invertido en el desarrollo de nuevas capacidades de desautomatización, es decir, de producción de neguentropía (Stiegler 2016).

Otros autores también han propuesto nombres alternativos para la nueva era de nuestro planeta. A Jason W. Moore le debemos el de Capitaloceno, que entiende el capitalismo como una ecología-mundo que desata sus poderosas fuerzas destructoras al fundir la acumulación de capital con las luchas de poder y la co-producción de la naturaleza (Moore 2017). El Capitaloceno responde a los argumentos de Moore, según los cuales el término Antropoceno oculta la manera como el capitalismo ha contribuido al predicamento actual. En este sentido, los cambios que vemos ahora no se habrían originado junto con la invención de la máquina vapor y su posterior aplicación a la industria, sino más atrás, con los orígenes del capitalismo.

La emergencia del capitalismo se debió, en gran medida, a la creación de grandes extensiones agrícolas especializadas en la producción de cultivos comerciales. A estas formas de explotación de la tierra mediante los monocultivos, y de las personas mediante la esclavitud, se les conoce como plantaciones. Y, aunque la historia cuenta cómo las plantaciones sentaron las bases del colonialismo europeo, una rápida mirada a la agroindustria contemporánea nos permite ver que no han perdido vigencia. Siguiendo este hilo, Donna Haraway invoca a la plantación como un símbolo para describir la explotación generalizada de Tierra y humanos en aras del crecimiento económico, y por ello sugiere que podríamos nombrar Plantacionoceno a esta nueva era (Haraway 2015).

La discusión sobre cómo nombrar –y, por lo tanto, cómo entender– la nueva era geológica en la que supuestamente ya nos encontramos, aún no ha llegado a un desenlace. Sin embargo, los términos que aquí he mencionado tienen algo en común: la sensación de que estamos experimentando las consecuencias de la violencia que nosotros como especie hemos infligido sobre nuestra comunidad extendida. De verdad importa por qué, cómo y cuándo comenzó esa violencia: es algo que debemos dilucidar sin tener miedo a las respuestas. Pero, sea cual sea el término que al final elijamos para darle sentido a los nubarrones que se avecinan, que ya cubren nuestras cabezas, debemos empezar a entender que nuestra incapacidad histórica para pensar las interconexiones que hay entre las cosas, para trazar implicaciones y co-implicaciones, para escuchar cómo resuenan aquí y ahora espacios y tiempos lejanos, es justo lo que nos ha dejado a la intemperie bajo estos cielos oscuros y violentos. Y resulta crucial que admitamos, hoy y aquí, que no nos queda más que incluir a la violencia entre los muchos elementos fundacionales de nuestra cultura, de nuestra tecnología, de nuestra literatura. De nuestra literatura electrónica.

Pero, ¿cómo hemos de activar los circuitos de la interconexión para comenzar la labor de encontrar a nuestra comunidad extendida entre toda esta violencia? Pienso que deberíamos ser capaces de pensarnos de otra manera: volver a pensar quiénes somos, qué hacemos. Y quizás podamos llegar a ese otro pensamiento justamente al dirigir la atención hacia nuestra comunidad extendida. Imaginar nuevas maneras de estar juntos: para ello tendríamos que pensar en los otros que no vemos, no nada más de forma conectiva, sino también compositiva, de tal modo que logremos re-componer ensamblajes de moléculas hiperaceleradas, células que se fractalizan salvajemente, lenguajes fragmentados, afectos rotos. Nuestra interdependencia, interrumpida por las pesadillas de la competencia de todos contra todos. Re-componer vidas rotas, selvas deforestadas, glaciares que se derriten, arrecifes que mueren.

Re-componernos. ¿Cómo?


 

Esclavos cortando caña de azúcar, de William Clark. El Plantacionoceno como consecuencia de la violencia contra tierra y humanos que dio origen al capitalismo.

Intimidad

¿Cómo se tocan las cosas? ¿Cómo se despiertan unas a otras del profundo sueño de la des-composición? Timothy Morton sugirió que es posible encontrar en el arte una respuesta a estas preguntas, siempre y cuando lo consideremos como un taller experimental en el que podemos estudiar y jugar con las relaciones de causalidad que entretejen a las cosas entre sí. Morton dice que estudiar una cosa consiste en examinar cómo opera la causalidad misma (Morton 2012). Las cosas que estudiamos, las cosas con las que jugamos –un poema electrónico, por ejemplo– intervienen directamente en la realidad, de manera causal. Y, al mismo tiempo, las cosas están atravesadas por voces, significados, actos y gestos que se revelan a través de la práctica artística, y que en nuestro caso es la escritura. Escuchar los murmullos que hay dentro de las cosas, los secretos que se dicen unas a otras, es practicar una forma de arqueología relacional por medio de la cual vislumbramos los innumerables despertares que trajeron a esas cosas a nuestro mundo. Explicar una cosa poéticamente es llevar a cabo un acto político no violento gracias al cual la coexistencia puede verse y trazarse a detalle. Es un acto que re-compone la sororidad de las cosas.

Pero, llegados a este punto, ¿cómo podemos reconocer y alimentar las conexiones que hay entre las cosas pequeñas (nuestros teléfonos móviles, por ejemplo, que no son otra cosa que ordenadores cada vez más miniaturizados), y las más grandes, que desafían nuestra percepción justo por su magnitud, como las redes globales de extracción de minerales o el cambio climático? ¿Cómo hemos de crear puentes entre las enormes diferencias de escala que hay entre las diminutas palabras e imágenes que vemos en nuestras pantallas, como peces dentro de una pecera, y el despliegue físico de los vastos y complejos fenómenos que caracterizan el Antropoceno/Entropoceno/Capitaloceno /Plantacionoceno?

Tal vez no hay que pensar en puentes, sino más bien en una nueva clase de percepción relacional abierta a estos fenómenos, a los que Morton llama hiperobjetos. Los hiperobjetos son cosas masivamente distribuidas en el tiempo y en el espacio de los humanos, y en consecuencia nos resultan imposibles de percibir de modo directo, tal como percibiríamos una flor o un soplo de viento. Sin embargo, hay una manera de detectar los hiperobjetos, pero solo «dentro de un espacio constituido por las interrelaciones entre [las]  propiedades estéticas de los objetos» que los integran (Morton 2013, 1) Es así, desde una perspectiva estética y relacional, como los hiperobjetos pueden convertirse en herramientas conceptuales novedosas para pensar y coexistir de manera crítica con otros seres, puesto que los hiperobjetos condensan los complejos fenómenos que ocurren a escalas gigantes en una percepción sensible que podemos caracterizar aquí como una conciencia penetrante de la comunidad extendida: «El pensamiento ecológico que piensa los hiperobjetos no es uno en el que los individuos se encuentran envueltos en un nebuloso sistema general, y tampoco uno en el que algo más vasto que los individuos se extruye a sí mismo, tomando las formas temporales de éstos. Los hiperobjetos, [más bien,] provocan un pensamiento irreductivo, sin arriba ni abajo, que nos obliga hacia una ‘intimidad con los no-humanos’»
(Morton 2013, 23).

La intimidad no necesita puentes. Los gases venenosos de millones de autos y miles de fábricas flotaban directo hacia adentro de mis fosas nasales mientras escribía este texto en la Ciudad de México. Semanas después, cuando lo corregía en Barcelona, sufría los efectos hipnóticos de una rara ola de calor causada, en parte, por las emisiones de CO2 de los vuelos transatlánticos, como el que tomé para viajar entre las dos ciudades. Los impulsos que corren a través de los circuitos de mi ordenador cuando escribo el código de un poema electrónico encuentran su camino a través de vías hechas de minerales que se formaron gracias a flujos ancestrales, ctónicos, debajo de las tierras del Congo y de México. Todo ello está aquí, justo bajo las yemas de mis dedos: lo toco, nos tocamos. Todo entra y sale de mi cuerpo. Solo por estar sentado aquí, en mi lugar, estoy envuelto en una red de relaciones estéticas inmensamente rica e intricada, en la que toco y soy tocado por entidades extrañas y lejanas, de maneras a veces violentas, a veces amorosas.

Los hiperobjetos pueden ayudarnos no solo a imaginar, sino a alcanzar la intimidad con la comunidad extendida. Efectivamente, el colapso planetario, entendido como hiperobjeto, puede estudiarse mediante datos y estadísticas. Pero se convierte en una presencia íntima que podemos tocar y sentir solo a través de las formas en las que nos rozamos unos a otros, humanos y no-humanos. La intimidad es más elocuente que los números y los gráficos.

Donna Haraway sugiere que este extraño estar juntos es un rasgo que define esta nueva era, y parte desde allí para proponer un término adicional para nombrarla: uno mucho más misterioso y especulativo que los que he mencionado hasta ahora. Haraway es la portavoz del Chthuluceno: un tiempo en el que nos vemos obligados a reconocer plenamente que hemos de vivir y morir juntos, con los otros, o bien dejar de hacerlo para siempre (Haraway 2016). El Chthuluceno es un enmarañamiento íntimo hecho de seres extraños, tentaculares, ctónicos, con quienes hemos de pensar, trabajar, amar. Sobrevivir. Para Haraway, el mantra de la era es «permanecer con el problema»: a pesar de los desastres que se ciernen sobre nosotros, el juego no ha terminado, y no hay a dónde escapar (Haraway, 2016). Por lo tanto, permanecer con el problema significa sobrevivir al calentamiento global, la extinción masiva, el colapso socioeconómico y la guerra total, sin esperanza ni desesperación, y sin caer en el cinismo. Significa aceptar que tendremos que ser-con los otros mediante colaboraciones y combinaciones inesperadas. O bien, dejar de hacerlo, para siempre. Quizá la mejor manera de entender el Chthuluceno es como una herramienta conceptual que revela el grado de simpoiesis sin precedentes que deberemos alcanzar junto con nuestra comunidad extendida. En breve, la simpoiesis es la «producción colectiva de sistemas que no tienen fronteras espaciales o temporales autodefinidas», en los que «la información y el control están distribuidos entre sus componentes» (Haraway 2016, 33). Producirnos-con, sin arriba ni abajo. Sin fronteras.

Si nosotros, como miembros de una comunidad vinculada por la literatura y las tecnologías electrónicas deseamos alcanzar la simpoiesis, y descender al nivel de intimidad necesario para quedarnos y enfrentar el problema, no nos queda más que inventar nuevas formas poéticas que en vez de crear distancias abismales entre nosotros y nuestra comunidad extendida, puedan ayudarnos a explorar las conexiones y desconexiones que nos unen y nos separan. Crear una nueva poética que pueda dar aliento a nuestra tarea de cuidar de los seres extraños y contradictorios con los que habremos de re-componernos.


Nuestra labor

¿Seremos capaces de plantar cara a este reto?

Creo, de hecho, que tenemos bastantes números para hacerlo. Nuestra comunidad de lectoescritores electrónicos ya se encuentra inmiscuida de modo profundo en la complejidad de ciertas tecnologías que representan a algunos de los hiperobjetos que con mayor insistencia se infiltran en nuestro día a día. Algoritmos, servidores, cables, radiofrecuencias, inteligencias no-humanas, prótesis digitales, bases de datos. Toqueteamos y jugamos con herramientas y medios que, más que cualquier otra invención anterior, nos permiten alcanzar a la comunidad extendida. Tal vez nuestra voluntad de intimidad con códigos, flujos y máquinas nos hace particularmente sensibles al pharmakon, y por lo tanto más aptos para tener éxito en la búsqueda de las dosis tecnológicas vivificantes. ¿Estamos, por todo esto, más cerca que otras comunidades de poder leer-y-escribir-con los otros? ¿Hemos adquirido, a través de nuestra labor, habilidades especiales para tejer con fuerza hilos que nos interconecten? Opino que sí, y que además estamos bastante bien preparados para in-corporar una actitud farmacológica en nuestras vidas cotidianas. No obstante, tendremos que llegar a un nivel de conciencia tal que nos permita reconocer que, en una actitud farmacológica, mediante una intimidad con los hiperobjetos, y a causa de nuestro estar juntos con entidades ctónicas y extrañas, nuestro trabajo se vuelve una labor dolorosa. Hay dolor en el saber que el mundo cuidadosamente ordenado en el que nacimos ha desaparecido, y que la supuesta solidez del suelo que nos sostenía se ha convertido en una corriente de lava al rojo vivo.

Pero al dolernos y guardar luto por lo que ya no es, sanamos, y nos sanamos unos a otros. Entramos en una serenidad sin esperanza ni desesperación, y en ella restauramos los lazos que nos enmarañan, que nos unen a nuestra comunidad extendida. Encontramos al otro a través de nuestra labor.

Y para hacer frente al dolor tenemos el recurso de la ironía. Lejos del cinismo, que no es más que una exaltación automatizada y abyecta de la impotencia, la ironía está del lado de la complicidad decisiva. La complicidad tuya, mía, y de todas las cosas que tocamos y nos tocan, al tiempo que nos damos cuenta de que estamos sumergidos en este gran desorden y que, aunque tengamos el agua al cuello, tenemos que navegar juntos a través de mares que se calientan. La ironía de descubrir que nuestros compañeros de viaje, aquellos con quienes debemos colaborar para encontrar la ruta, no hablan nuestra lengua, y a veces ni siquiera hablan en formas que podamos escuchar. ¡Y aun así hay que seguir adelante! La ironía, en nuestro trabajo, puede convertirse en una táctica para encontrar mejores maneras de permanecer con el problema, de permanecer extrañamente enmarañados, misteriosamente vinculados, inevitablemente interdependientes.

Nosotros, los que hacemos literatura electrónica, tenemos que reconocer nuestra co-participación con seres humanos extraños, y nuestra complicidad con no-humanos, extraños también. Todos ellos forman, con nosotros, la comunidad extendida con cuyos miembros debemos pensar, hablar, leer y escribir. Podemos darles la bienvenida practicando lo que Cristina Rivera Garza llama desapropiación: en lugar de ocultar nuestra complicidad creativa con otros seres detrás del mito del genio individual, tendríamos que in-corporarlos de forma explícita en nuestro trabajo, que es tanto físico como comunal (Rivera Garza 2013).

Pero al recibir a los otros en nuestra escritura, tendríamos también que reconocer que nos ubicamos en la parte más favorecida de un enmarañamiento trófico. Es verdad, nos encontramos en la posición tan privilegiada como paradójica de tener la libertad de usar dispositivos fabricados con minerales extraídos brutalmente para escribir historias sobre la brutal extracción de minerales. Hacemos que las máquinas exhalen CO2 al escribir sobre los niveles alarmantes de emisiones de gases de efecto invernadero. Esta paradoja es inevitable, puesto que refleja la contradicción profunda que yace en el corazón de la cultura: para crear hemos de destruir. Tal como lo propuso Walter Benjamin, no existe documento de cultura que no sea, a la vez, un documento de barbarie. Pero, a pesar de todo esto, insisto en que podemos hackear nuestros privilegios si escuchamos el llamado: el llamado de los miembros de nuestra comunidad extendida, hasta ahora ignorados y silenciados. No hay futuro de la escritura sin su escritura.


[I] Fuente: http://www.greatrecovery.org.uk/resources/haute-clutture/ (fecha de consulta: 8 de noviembre de 2017).

[II] The Gathering Cloud, por JR Carpenter. http://luckysoap.com/thegatheringcloud/ (fecha de consulta:  8 de noviembre de 2017).

[III] CO2GLE, por Joana Moll. http://www.janavirgin.com/CO2/CO2GLE_about.html (fecha de consulta: 8 de noviembre de 2017).


Referencias

Berardi, Franco, The Uprising: On Poetry and Finance (EEUU: Semiotext(e), 2012).

Burgis, Tom, The Looting Machine (Reino Unido: William Collins, 2015).

Centro de Derechos Humanos Miguel Agustín Pro Juárez, Manual Antiminero (México: Centro ProDH, 2014).

Cohen, Anthony P., The symbolic construction of community (EEUU: Routledge, 1985).

Guillén Vicente, Alfonso, “El artículo 27 constitucional y la Reforma Energética”, Hechos y Derechos, 19(2014).

Haraway, Donna, «Anthropocene, Capitalocene, Plantationocene, Chthulucene», Environmental Humanities, 6(2015): 159-165.

—–, Staying with the Trouble: Making Kin in the Chthulucene (EEUU: Duke University Press, 2016).

Harman, Graham, Bells and Whistles (Reino Unido: Zero Books, 2013).

Marcuse, Herbert, El hombre unidimensional (Spain: Ariel, 2010).

Moore, Jason W. «The Capitalocene, Part I: On the nature and origins of our ecological crisis». The Journal of Peasant Studies 44, no. 3 (2017): 594-630.

Morton, Timothy. «An object-oriented defense of poetry». New Literary History 43, no. 2 (2012): 205-224.

—– , Hyperobjects: Phylosophy and Ecology after the End of the World (EEUU: University of Minnesota Press, 2013).

Parikka, Jussi, The Anthrobscene (EEUU: University of Minnesota Press, 2014)
Rivera Garza, Cristina, Los muertos indóciles. Necroescritura y desapropiación (México: Tusquets, 2013).

Stiegler, Bernard, Lo que hace que la vida merezca ser vivida (España: Avarigani, 2015).

——, The Automatic Society. Volume 1: The Future of Work (Reino Unido: Wiley, 2016).

Swanstrom, Lisa, «The Peripheral Future», Electronic Book Review, April 3 (2016) [fecha de consuta: 24 de junio de 2017]. Disponible en http://www.electronicbookreview.com/thread/criticalecologies/peripheral

Tisselli, Eugenio, «Why I have stopped creating E-lit», Netartery, November 25 (2011) [fecha de consulta: 24 de junio de 2017]. Disponible en  http://netartery.vispo.com/?p=1211

Steffen, Will, Jacques Grinevald, Paul Crutzen, y John McNeill. «The Anthropocene: conceptual and historical perspectives». Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 369, no. 1938 (2011): 842-867.

 

 

En portada: mina de oro, Salento, Colombia

Copy of Democracia en red_0

De las redes sociales a las redes (tecno)políticas: redes de tercera generación para la democracia del siglo XXI*

La sociedad deviene (en) red. Impulsadas por multitud de actores, las redes han venido a permear cada vez más facetas de nuestras vidas personales y colectivas en las últimas tres décadas. Esto puede apreciarse en fenómenos que van de las elecciones que hicieron a Trump presidente (claramente influenciadas por Facebook y Twitter) a los precios de la vivienda en Barcelona (afectados por Airbnb), de las relaciones laborales (desarrolladas en LinkedIn) a las afectivas (en juego en Tinder). Pero hay diferentes tipos de redes, promovidas por diferentes tipos de actores. El argumento teórico clave esbozado en nuestro artículo «Decidim: redes políticas y tecnopolíticas para la democracia participativa», publicado en la revista Recerca hace unos días, sugiere la necesidad de diferenciar entre tipos de redes así como de entender Decidim, una plataforma digital de democracia participativa desarrollada por el Ajuntament de Barcelona, como un espacio de construcción de dos nuevos tipos de red.

En los 90, la World Wide Web, la primera red digital en tener un alcance de masas, encarnó un modelo de red de primera generación, el de las redes informacionales. La WWW se caracterizaba por permitir la publicación de información y contenidos en páginas accesibles desde cualquier terminal conectado a Internet. Aunque las páginas web ofrecían múltiples posibilidades de interacción, su arquitectura imponían a menudo diversos límites a la misma. El modelo típico era el de una página con contenidos preparados y poco modificables por parte de las personas que la visitaban. Estos límites a la interacción limitaban también la cantidad de información que dichas webs podían obtener de sus usuarias. Esto no impidió que floreciesen nuevas formas económicas apoyadas en los medios digitales: en los 90 Internet y la web fueron asociadas a la emergencia de lo que Castells denominó el «capitalismo informacional», un nuevo estadio del capitalismo en el que la producción y apropiación de información pasaban a ser clave en la producción de valor económico. En torno al cambio de siglo, proyectos como Indymedia, una red participativa de información política y social alimentada por activistas y periodistas independientes, supusieron un estadio intermedio hacia lo que luego se vino a denominar «web 2.0».

Ya en la segunda mitad de la década de los 2000 comenzó la proliferación de las redes digitales de segunda generación, las denominadas «redes sociales». De acuerdo con autores como Tim O’Reilly, plataformas como Facebook o Twitter hacían de la interacción de las personas usuarias entre sí y con los contenidos (en lugar de la mera información) el núcleo de su construcción. Esto, unido al incremento progresivo de las técnicas de extracción, almacenamiento y procesamiento de grandes datos (big data) permitió la emergencia de una forma específica de capitalismo informacional: el capitalismo de datos. Según un extendido adagio, «los datos son el nuevo petróleo». En los últimos diez años, plataformas corporativas como Facebook han crecido al ritmo de una economía basada en el estudio y el gobierno de la atención y el comportamiento digital de las personas, convirtiéndose así en mediatizadoras de la vida y la comunicación social, todo ello, con una capilaridad mucho mayor que la de medios tradicionales como la televisión o el periódico. De este modo, las redes sociales, que des-intermedian ciertos aspectos de la comunicación social (p.ej.: la necesidad de pasar por el filtro editorial de un periódico o cadena televisiva) vuelven a mediarla. Lo que Castells definió como «autocomunicación de masas» (la comunicación multicanal de persona a persona, de una a muchas, y de muchas a muchas) tiene como correlato lo que podríamos definir como una «captura de masas», captura de masas de datos, comunicaciones, afectos y actividades humanas. Por decirlo con otro conocido lema: en internet, si algo es gratis, significa que el producto eres tú.  Uno de los efectos más visibles en el plano político ha sido la centralidad de las redes sociales en la estrategia y la victoria de Trump en las últimas elecciones estadounidenses. Corporaciones como Google o Facebook acumulan más información y capacidad de orientación y acción sobre la vida de cada persona que cualquier medio de comunicación o Estado hasta la fecha. Esto nos aboca a una suerte de heteronomía tecnopolítica y social y ha hecho que autoras como Shoshana Zuboff adviertan de la emergencia de un capitalismo de la vigilancia. Este alimenta y se alimenta de un refuerzo de la sociedad de la hipervisibilidad y la exhibición (acaso una modulación de la sociedad del espectáculo anunciada por Débord) al calor de estas plataformas. Como alternativa a las plataformas comerciales surgieron, también en la segunda mitad de los 2000, redes sociales alternativas, de Diáspora (con más de 1 millón de personas usuarias) a n-1, plataforma muy usada durante el movimiento 15M .

Decidim es ejemplo de un modelo emergente de redes de tercera generación, que denominamos «redes políticas». El  proyecto se incardina en múltiples procesos de largo recorrido1. El software de Decidim, que empezó como una plataforma de participación diseñada para cubrir necesidades del ayuntamiento de Barcelona en lo que respecta a participación ciudadana, es usada actualmente por más de una docena de ciudades y, lo que es más importante, en los próximos meses será utilizado por cooperativas y otras organizaciones sociales. Esto permite albergar la esperanza de beneficiarse de la Ley de Metcalfe, por la que el valor de una red de comunicación es el cuadrado del número de nodos: dicho de otro modo, una red es más valiosa si tiene mucha gente con la que realizar actividades (p.ej.: comunicarse). El horizonte es permear un espectro amplio de circuitos y esferas sociales.

En todo caso, la clave diferencial de las redes políticas reside en lo que puede hacerse en ellas y con ellas. Redes digitales como Decidim tienen tres características fundamentales: en primer lugar, reducen la centralidad de la figura del prosumidor en  red (alquien que produce y consume contenidos digitales) y la sustituyen por la de un actor decididamente político; en segundo lugar, lo hacen articulando espacios que permiten la construcción de identidades, voluntades e inteligencias colectivas más allá de la mera expresión, agregación o circulación de gustos y preferencias individuales; en tercer lugar, conectan éstas con decisiones que afectan al plano de lo colectivo en tanto que colectivo. En este sentido, las diferencias de nomenclatura son indicativas: en lugar de un Facebook (traducible como «libro de caras»), Decidim («decidimos», en castellano) sitúa en el centro de su construcción el vínculo político. No interpela a individuos en red sino a un  «nosotros y nosotras», un «nosotros y nosotras» decisivo. En casos como el de Decidim, las redes políticas permiten intervenir en las instituciones y la construcción de políticas públicas. Más allá, su principio regulativo es el de que las personas participantes tomen parte como pares (nuestra interpretación de latino pars capere de la participación) en los procesos políticos, sean del Estado o cualquier organización social. Si bien todas ellas se basan en principios como la interconexión o la compartición, en las redes informacionales la clave es la información, en las sociales, la interacción, y en las políticas, la decisión. Cada generación recoge y modula características de las anteriores. Del mismo modo que las redes sociales construyeron sobre y, al tiempo, cuestionaron el modelo de las redes informacionales (conforme a la habitual reconstrucción del tránsito de la web 1.0 a la web 2.0), las redes políticas construyen sobre, enlazan con y divergen de la lógica de las redes sociales. Las formas de información y comunicación que permiten redes políticas como Decidim están pensadas en términos de calidad democrática (igualdad, calidad de la información, potenciamiento de la deliberación, etc.).  Potenciar una autocomunicación multitudinaria (ya no «de masas») libre, evitar su captura, es clave para la salud de la democracia del siglo XXI.

Más allá de su condición de red política, Decidim es una plataforma radicalmente participativa, esto es, permite el control y la intervención de las personas participantes en todas las capas de su estructura tecnológica, de su código interno (su back end) a sus interfaces y experiencia de participante (front end). Esto la distancia aún más del modelo habitual de red social comercial, en el que las personas usuarias no tienen capacidad de decisión sobre aspectos como el código, las normas de uso o las políticas de datos. En este sentido, podríamos sugerir que la red MetaDecidim 2, sobre la que se apoya una comunidad abierta y ciudadana que decide sobre todos los aspectos del proyecto Decidim, constituye una red ya no solo política sino «tecnopolítica», esto es, una red que sitúa la construcción de una tecnología y la comunidad en torno a ella en el centro de su diseño (y acción) política. Frente al modelo corporativo de red digital de Facebook o Twitter, en el que tanto el código como los datos generados suelen ser privativos y cerrados, Decidim es un modelo de red con financiación pública y control ciudadano, un ejemplo de lo que podría definirse como una infraestructura público-común (financiada con dinero público, diseñada con, y gobernada por la ciudadanía), una infraestructura que aumenta la autonomía tecnopolítica de quienes la utilizan. Metadecidim hace de Decidim un procomún digital.  Los datos y contenidos generados en ella también lo son, es decir, permanecen bajo el control de las personas participantes (en todo lo que respecta a su privacidad) y en el dominio público (en todas sus facetas públicas; p.ej.: comentarios en hilos). Esto también implica que las diversas formas y reglas en torno a la información, la comunicación y la relación en Decidim están abiertas a la modificación por la comunidad, haciendo de la autonomía y la autocomunicación libre un fenómeno recursivo.

Las redes políticas también se enfrentan a retos y límites evidentes: alcanzar amplios sectores poblacionalese, promover su inclusión empoderada, conectar de manera efectiva con decisiones colectivas (especialmente, en el ámbito de la política pública), desarrollar los sistemas tecnológicos necesarios para cubrir todas sus necesidades de desarrollo (del manejo de la identidad digital a su conexión con el territorio), garantizar su sostenibilidad económica en el tiempo, etc. En todo caso, redes políticas como Decidim y redes tecnopolíticas como Metadecidim plantean un horizonte de redes de tercera generación no corporativas, refractarias a las diversas formas del capitalismo de datos, y orientadas por principios como los de autonomía tecnopolítica y social, autocomunicación libre, comunes digitales y democracia radical. En definitiva, el proyecto Decidim aspira a servir como dispositivo y modelo para la transformación política en un periodo de crisis de la representación y de la hegemonía neoliberal misma, hacia una democracia real y en red.


1. Entre ellos la transición digital de las tradicionales instituciones políticas (cuyos procesos de participación aún no han sido copados por plataformas corporativas y cuyo avance se ha visto ralentizado por los retos y recelos que genera la participación en las instituciones y las dinámicas representativas tradicionales); 2-los procesos de transformación democrática abiertos desde el 15M; 3-la tradición del software libre y el hacktivismo; 4-la toma de conciencia de las amenazas a la privacidad y la seguridad personal, e incluso la soberanía tecnológica, reveladas por las filtraciones de Wikileaks y Snowden.

2. Metadecidim es una instancia del propio Decidim, esto es, una plataforma basada en su código.

 

*Publicado originalmente en Tecnopolítica.net, el 18 de octubre de 2017. Reproducimos aquí según su licencia Creative Commons Reconocimiento-CompartirIgual 4.0 Internacional. Disponible en: http://tecnopolitica.net/content/de-las-redes-sociales-las-redes-tecnopol%C3%ADticas-redes-de-tercera-generaci%C3%B3n-para-la  

 

 

Maluma lector de Camus (Dos historias de impresiones en redes sociales)

A las 11:57 de un lento lunes de verano en la Ciudad de México, la cuenta de Twitter @literaturainba publicó un tuit con una imagen y un texto.

Entre la maraña de códigos Ruby, Scala y otros diferentes lenguajes de programación podemos encontrar claramente un texto en unicode y una imagen de formato .jpg que en conjunto son lo que se conoce como tuit. El texto escrito por el community manager (CM) de la cuenta y la imagen producida por un autor desconocido me provocan una violencia ofuscada, casi invisible, que quisiera enunciar en este texto.

Primero hablaremos de la composición del binomio texto/imagen de este tuit. El tuit es un texto de menos de ciento cuarenta caracteres en un servicio de microblogging llamado Twitter, que ha conseguido soportar la reproducción de cada vez más variedades de medios. A lo que publicó la cuenta de @literaturainba lo podemos denominar meme. Solo que, a diferencia de la forma clásica unitaria de un meme, aquí el texto no está contenido en el formato.jpg de la imagen, sino en el texto que se puede escribir en el tuit. La fotografía es la imagen de una conocida celebridad de la música sosteniendo un libro. El texto es una frase que hace referencia al retratado en la fotografía y al público que lee el tuit.

No me molesta en lo absoluto que CM de empresas, instituciones, o medios de información empiecen a utilizar memes para poder llegar a mayores audiencias. Yo lo celebro. Empezar a emplear lógicas y racionalidades más cercanas a las que usamos en la vida cotidiana puede ayudar a que la información de esas cuentas llegue a las poblaciones a las que le son útiles.


Aprender a leer las imágenes o sobre la violencia

Es famoso el refrán «Una imagen vale más que mil palabras», pero lo cierto es que la imagen es una de las formas más poderosas y fáciles que hay para mentir; trabajos como el de Ariella Azoulay sirven como ejemplo. Por ello debe verse de manera crítica cualquier imagen. Walter Benjamin, en El autor como productor, hablaba de la fotografía como algo que solamente puede reproducir la belleza. Un párrafo adelante, Benjamin nos dice que «lo que nosotros requerimos de la fotografía es la habilidad de otorgarle a la imagen una leyenda que le pueda transformar su aspecto comercial y darle un significado revolucionario». Y de lo primero que nos damos cuenta es de que las imágenes, sobre todo las fotografías tomadas con una cámara en los lugares de los hechos (como las tomadas por soldados en el frente de guerra) esconden mucho más de lo que muestran. En cierta manera, son citas de un texto del cual solo conocemos ese fragmento. En una sociedad que ha pasado del logocentrismo al dominio de las imágenes es necesario desconfiar de estas y aprender a leerlas.

La violencia contenida en la imagen empieza con el personaje retratado. Esta violencia en específico no está en sí contenida en la imagen, pero está asociada por miles de personas que ven el reggaeton, como a muchos de los géneros musicales del siglo veinte, sucio, impúdico, inmoral, y un largo etcétera. Los prejuicios y clasismos/racismos que acompañan la idea del reggaeton (género de música afrocaribeña nacida en Panamá en algún momento de la década de los noventas del siglo pasado) son impuestos por nosotros como sociedad. Son reflejo de nuestra impresión. Son la mirada que nos hace imprimir en la imagen toda una serie de prejuicios y temores. Pero además de esa violencia clasista/racista hay otra violencia en esa imagen, un poco más sutil: la violencia de Maluma sosteniendo a Camus, de ella hablaremos más adelante.

Pero la violencia de la imagen queda completamente superada por la violencia del texto: «Maluma ya leyó a todo Camus y tú todavía no terminas la tesis» dice el tuit publicado por una dependencia de la Secretaría de Cultura. Según el anuario estadístico de educación superior de la ANUIES son casi cuatro millones de alumnos inscritos en algún nivel de educación superior. Pero la cifra representa solo 23% de los jóvenes mayores de edad del país. También sabemos que únicamente 25% de los estudiantes en educación superior logran graduarse, y solo 4% de los estudiantes inscritos en alguna institución de educación superior se encuentra haciendo estudios de posgrado. En una generación de ninis, burlarse de quienes no han terminado la tesis desde una cuenta del gobierno encargada de la literatura de la Secretaría de Cultura, es, bajita la mano, bastante violento.


La arqueología de la imagen

Cuando el tuit salió lo primero que hice fue inspeccionar la imagen —tengo un amor por la imagen pobre —. Yo mismo suelo hacer mucho collage digital y lo primero que pensé era que esa imagen estaba compuesta. No es difícil poner a Maluma sobre un cuerpo leyendo un libro. Después me interesó que no se veía nada escrito en el lomo del libro y había cierta extrañeza en la foto de Camus. Es más fácil intervenir la portada del libro que la cara de Maluma, además podemos suponer que es Maluma el de la foto debido al tatuaje en el brazo. Más tarde, ese lunes hice dos versiones de la imagen solo por el tren del mame. En una de ellas Maluma sostiene Photoshop cc for dummies. En mi meme: una imagen photoshopeada en la que Maluma se burla de la posibilidad de hacer un sinnúmero de imágenes de él mismo dando cualquier clase de lectura a la fotografía. El hecho de que la imagen tenga un lienzo que puede ser intervenido sin mucho trabajo es crucial, y ya deberíamos haber aprendido a que poner superficies planas en las manos de la famosos es contraproducente.

Muchas de las reacciones a la imagen de Maluma nos muestran cómo leemos imágenes y cómo entendemos la lectura y la educación. Al poner a Camus en la portada del libro estamos condicionando a interpretar que Maluma está aprendiendo algo de Camus, y esa condición nos lleva a considerar que Camus podía ser el maestro de Maluma. Así podemos ver cómo consideramos la lectura, no como algo entre intelectos pares, sino como un discurso de poder jerárquico. Yo mismo tiendo a leer la imagen como si cualquier cosa que esté en el lugar de la imagen de Camus condiciona a Maluma.

Mi ansiedad por leer la imagen no termina ahí. Quiero saber si la imagen es «real». Pero, ¿puedo saber si la imagen es real en un mundo dominado por imágenes digitales pobres, que permiten su rápida distribución y modificación? ¿La cuenta @literaturainba fotomontó la imagen como muchos medios se apresuraron a decir? ¿Es acaso una imagen modificada menos importante que una sin modificar?

Para resolver la pregunta de si era Maluma el de la foto me di a la tarea de buscar la imagen más cercana temporalmente a un original, o sea, la que mayor tiempo llevara en línea. Por medio de este link encontré que uno de los primeros en difundir la foto fue un club de fans en Israel —29 de junio es la fecha del post—. Después de un poco más de búsquedas llegué a Instagram de londonqphotos. La foto se subió a internet, hasta donde he podido llegar, el 26 de junio. Un análisis con aplicación gratuita de cuentas de Instagram en web me da como resultado que cuando @londongphotos publica fotos de Maluma es cuando más corazoncitos obtiene la cuenta. Después pensé qué haría Maluma leyendo a Camus. Es completamente injusto pensar que un ser humano como Maluma, o Juan Luis Londoño Arias, como es su nombre de pila, no pueda leer a Camus. No puedo decir que está leyendo, pues tiene los ojos enfocados en la cámara. Tampoco sería muy descabellado que leyera a Camus, pero al preguntarme eso, y viendo que en la imagen el libro no parece tener nada en el lomo me hizo preguntar si acaso en realidad lo que Maluma sostiene es un libro de Camus. Digamos, todos lo que hicimos photoshop de esa imagen jugábamos a la posibilidad de que pudiera estar sosteniendo cualquier libro. Así que si puedo encontrar un ejemplar de Camus con esa portada, esa foto podría ser real, aun cuando veía que la parte inferior de la portada estaba sospechosamente ausente de algún texto. Después de buscar por muchos de los Amazon a los dos lados del atlántico sin encontrar ningún libro de Camus con esa portada llegué a pensar si no debería buscarlo en algún sitio colombiano. No tardé ni diez minutos en Mercado Libre Colombia para darme cuenta de que todas las traducciones de Grupo Editorial Tomo de Camus tienen la misma foto de portada. Entonces, en la imagen Maluma sí está sosteniendo un ejemplar de Camus. Sí, la imagen está alterada, debido a la falta del título del libro, por lo que no sabemos cuál de los libros de Tomo es el que Maluma sostiene en manos. Eventualmente encontré está nota de BuzzFeed en la que muestran el Instagram stories de Maluma, y allí se ve el tatuaje clásico del cantante sobre el libro de Albert Camus La caída. Buzzfeed dice que en algún momento de noviembre se publicó esa foto. Con esta prueba tenemos dos imágenes con Maluma y un libro de Camus. Todas las dudas sobre la autenticidad del evento se esfumaron, además el cantante aclaró el misterio: apenas ha leído la mitad del libro.


El meme

A este híbrido entre texto de microbloggin e imagen que llamamos tuit se le considera un meme. Podríamos catalogar al meme —puesto que siempre nos gusta separar y organizar— como una hibridación de dos memes: primero, el meme en la imagen es conocido como Sign Holding (o «sosteniendo un letrero»). Su origen, todo según knowyourmeme.com, fue Occupy Wall Street. Pero el meme se popularizó con Michelle Obama y después con Donald Trump. El segundo, el meme del texto, el: Canek ya terminó de escribir su artículo sobre memes y tú no has terminado la tesis es ya un clásico. Lo podemos encontrar en Twitter desde hace un tiempo, pero sobre todo, si uno busca en Google images «tesis» se puede ver la gran cantidad de memes que hablan del tema, dejo unos cuantos aquí.

Un meme tiene la característica de ser ambiguo. Es un arma de doble filo. El concepto meme es una adaptación de la neurociencia, y se define como un contenedor, un aparato, un dispositivo que contiene una idea, un símbolo o una práctica que se propaga dentro de una cultura. Richard Dawkins acuña el neologismo en 1976 a partir de una analogía con los genes. Mucho de su funcionamiento de dispersión dentro de una cultura viene de estudios de virología, de ahí que ahora llamemos viral a un meme, dándole un sentido positivo a algo que antes era aterrador, como una epidemia. Los memes deben mutar. Están hechos para ser abarrotados con miles de variaciones, pero muchas veces el mensaje se mantiene igual sin importar qué tanto se modifique el meme. Por ejemplo, poner la cara de Camus sobre la de Maluma y poner a Maluma en lugar del libro de Camus mantiene el meme más o menos igual.

Estamos de acuerdo con lo que dice Smetnjak sobre el meme: es peligroso. Según Alex Galloway «los memes parecen operar casi en su totalidad en lo que solíamos llamar como ideología. El poder y el interés que los memes tienen es debido a su estatus como máquinas ideológicas». Uno de los problemas que enfrentan los memes, si se usan para debatir políticamente, es romper la burbuja del público en la que circula el meme, puesto que suelen circular en burbujas de personas que piensan más o menos igual; cosa que pasa casi en todas las redes sociales, en las que uno «cura» sus contenidos y tienen algoritmos que hacen parecer que en el mundo solo existen personas que piensan más o menos como cada uno de nosotros.

Aquí la pregunta radica en si realmente sirve como fomento a la lectura usar una red social de microblogging en la que la mayoría de los usuarios son de clase media. No creo que el meme haya llegado a las personas a quienes la imagen de Maluma leyendo a Camus pudiera serles útil para decidir abrir un libro. La razón del tuit es claramente llenar las cuotas de impresiones de la semana para el CM.

Esto tampoco debe sorprendernos, casi todas las cuentas comerciales de Twitter, de instituciones públicas y de influencers tienen la misma lógica de atraer la mayor cantidad de interacciones con la cuenta a como dé lugar. En una época en la que el flujo de información es tan abrumador, lo que realmente es escaso es la atención. Para Katherine Hayles estamos en medio de un cambio cognitivo: pasamos de la atención profunda, que permitía que un estudiante leyera, no sé, Terra Nostra de Carlos Fuentes sin interrupciones, ignorando estímulos externos, concentrado en un solo flujo de información, a la hiperatención, caracterizada por lo cambios rápidos entre diferentes tareas, prefiriendo múltiples flujos de información y buscando altos niveles de estímulos, con una baja tolerancia al aburrimiento. La hiperatención es algo a lo que muchos de los medios de información no han logrado adaptarse, es por ello que yo celebro que se usen más memes para llevar personas a sus sitios. El problema es cuando utilizan este tipo de estrategia no con el fin de rediriguir al público a un repositorio con textos de Camus para alentar la lectura, por ejemplo, sino con el objetivo de generar numeraria de impresiones en redes sociales; el meme en sí, y el tuit, pasan a ser solo una estrategia para llenar la cuota de la semana.

Ambos productos de este meme, el texto de @literaturainba y la foto de Maluma leyendo a Camus, son producto de esa necesidad de impresiones. Son producto de una necesidad de lograr ciertos números en las cuentas de redes sociales. No es raro que si uno analiza la cuenta de @londongphotos o @literaturainba, las publicaciones alusivas a Maluma son sustancialmente más populares que las otras. Ambos están luchando por la atención del público y ambos han encontrado en Maluma una forma de inflar los números de sus redes sociales. Aquí lo peligroso no es que los mayores éxitos de vistas de @londongphotos sean a partir de las fotos de Maluma, sino que una institución cultural responsable de la literatura en un país con tanto déficit de lectura como el nuestro no haya podido utilizar a Maluma para generar más lectores. En cambio, prefirió hacer mofa de más de 60% de la población joven y más de 80% de la población en general del país que no está buscando obtener un título universitario.

De cierto modo, el pop nos ha formado como generación. Hacer sentido sin tener significado sería ese grado cero de la ideología en el que vivimos. Ya no somos espectadores, estamos en una época en la que podemos interactuar, hacer oír nuestras voces en servers encriptados, privados, esos departamentos sin ventanas de la era soviética donde uno duerme junto a Stalin—. Frente a la alienación y la soledad del individuo —dividuos como los llama Deleuze en su Postscript a las sociedades de control (1992)—, las redes sociales nos ofrecen más individualización y mayor alienación.

Podemos sospechar, en este binomio de expresión y contenido, en esta enunciación, los motivos: un meme para «fomento a la lectura» que está más bien hecho en un valor cuantitativo de entregar números semanales de impresiones de un CM. Pero la foto de Maluma lleva algo más que buscar viralidad de un contenido. Podemos decir que Maluma es famoso por ser una imagen. Es, en términos occidentales/coloniales, un hombre hermoso. Es un producto imposible de consumir como uno desea. Pero no podemos negar que Maluma, el cantante de «Ella borró cassette», haya leído a Camus.


Maluma lector de Camus

Manual de instrucciones para responder esas preguntas incómodas que le hacen a cualquier aspirante a escritor cuando dice que es escritor y sus significados y significaciones consecuentes a las respuestas.
  1. Has leído a [escoja aquí autor cualquiera]
         Sí: Obvio, es usted un gran lector y próximo Borges.
         No: Nunca lo acepte, qué oso no ser el próximo Borges.
  1. ¿Tiene el libro en casa?
         Sí: Diga que no puede prestarlo porque tiene anotaciones que en este momento son muy importantes para su labor muy importante.
         No: Cómprelo y tómese una selfie con él.
  1. ¿Recuerda tal o cual capítulo?
         Sí: Oh, es usted un gran estudioso, haga cara de que no te conviene que siga preguntando.
         No: Busque sentir disgusto por esta situación y evite continuar.

 

En fin, lo que realmente sabemos sobre si Maluma leyó, en algún punto de los últimos nueves meses, a Camus es que hay dos fotos de él con el libro. Quisiéramos saber si leía El mito de Sísifo, o La Peste o La Caída, que es la foto que él mostró en noviembre. Podemos ver la intimidad de Maluma, pero nunca podemos ver realmente a Maluma. O mejor dicho, aquella persona que muestra en Instagram el hedonismo de una superestrella puede, sin las luces, que lo moldean leer a Camus.

A lo largo de este texto me he visto forzado a contar mi historia con esta foto, y cuando encontré la nota de Buzzfeed en la que hay una foto de Instagram stories de Maluma enseñando el libro La Caída, de Camus, fue muy claro para mí que la necesidad de borrar el título del libro en la foto era imperante. Si se lee La Caída o La Peste frente a Maluma, el encanto de la foto de Camus con su cigarro, tomada por Henri Cartier-Bresson en 1947, en paralelismo con Maluma en su pose trademark del dedo pulgar en la barbilla sería completamente anulado. Aquí lo que vemos, sin tener que inspeccionar mucho más, es la búsqueda de los publicistas con Maluma y del fotógrafo de impregnar la imagen del reguetonero con el aura de un reconocido galán occidental de prestigio intelectual.

 

Pero, ¿es realmente un intento de simetría con la imagen de Camus o hay algo de Camus en Maluma? Camus nos dejó como frase más popular en internet: «el tema más importante para la filosofía es el suicidio». Buena parte de su obra se centra en la búsqueda del sentido de la vida. ¿Y qué pasa cuando uno pierde el sentido de la vida? Uno está constantemente preguntándose si hay sentido en todas las acciones que lleva a cabo: ¿para qué levantarse? ¿Para qué bañarse? ¿Para qué ir al trabajo, esclavizante y horroroso? ¿Para qué contraer una deuda y traer al mundo hijos? etcétera. Según Camus, si nada de la vida te hace sentido, lo mejor es suicidarse. La paradoja del absurdo, creo que la llaman. La vida, sobre todo una como la que llevamos en estos momentos del semiocapitalismo, no tiene mucho sentido. Cada vez que comemos condenamos a la masa biológica del planeta a que más rápidamente deje de soportarnos en este planeta. Para gran parte del público de Maluma su Instagram es una forma de darle sentido a su vida. Alguna vez seré él/alguna vez lo tendré a él es mucho del producto que se consume en este caso. No tiene nada que ver con la música. Es la forma con la cual se crea el imaginario de esa posibilidad de futuro donde el capitalismo te la hizo buena. Esa esperanza de alguna vez terminar de consumir a Maluma es absurda, es aún más absurda que la existencia en este capitalismo. Maluma usa la figura de Camus, quien se cuestiona el sentido de la vida, para buscar público nuevo, y para alimentar al ya cautivo, pero también usa a Camus para dotarse de un cierto aire de intelectualidad occidental clásica, pero en un plano más violento, Maluma nos recuerda lo absurdo de la existencia, de la filosofía, de las imágenes, y el sinsentido con el cual buscamos expresarnos a como dé lugar.  El caso es que Camus, quien en cierta manera era un rockstar por méritos propios, podría ver en el hedonismo del Instagram de Maluma aquel Sísifo que acepta su eterna labor, conscientemente, de esa vida idéntica a cualquier otra, de esos sueños atrofiados por el capital, de esa libertad de expresarse siempre y cuando contribuyas al capitalismo a producir enajenación. El absurdo de la vida de un cantante de música popular multimillonario, de un escucha sin trabajo en alguna parte de Latinoamérica están contenidas en una sola imagen.

Hito Steyerl alguna vez escribió, sobre el video Heroes (1977), de David Bowie:

«Canta a un nuevo tipo de héroe, justo a tiempo de la revolución neoliberal. El héroe ha muerto, ¡larga vida al héroe! Pero el héroe de Bowie ya no es un sujeto sino un objeto: una cosa, una imagen, un espléndido fetiche: una mercancía imbuida de deseo, resucitada más allá de la miseria de su propio final.

[…]

El héroe de Bowie no solo ha sido clonado, sino que sobre todo se ha convertido en una imagen que puede ser reproducida, multiplicada y copiada, un riff que viaja sin esfuerzo por anuncios que publicitan casi cualquier cosa, un fetiche que empaqueta como producto la glamorosa e impávida imagen de un Bowie más allá de los dos géneros. 2 El héroe de Bowie ya no es un ser humano más grandioso que la vida cumpliendo sensacionales misiones ejemplares, y ni siquiera es un ícono, sino un producto resplandeciente dotado de una belleza poshumana: una imagen y nada más que una imagen. La inmortalidad de este héroe ya no se origina en su fuerza para sobrevivir a cualquier prueba, sino en su capacidad de ser fotocopiado, reciclado y reencarnado».

Lo mismo sucede con Maluma. Con esta foto de @londongphotos podemos ver esa economía alternativa de las imágenes de baja resolución completamente cooptada para atraer gente a una cuenta. Las imágenes construyen redes anónimas globales como si crearan una historia en común, por ejemplo, la primera huella que tuve de que la foto de Maluma era real fue por medio de un club de fans israelí. La belleza poshumana a la que Steyerl se refiere es la transitoriedad de la copia. Su capacidad para ser adaptada, su poder memético.


LOL

El 13 de febrero de este año, a las 9 am hora local, en un aeropuerto de bajo costo de Malasia, moriría el hermano mayor de Kim Jong-un, gobernante de Corea del Norte. Más tarde de esa mañana dos mujeres, la vietnamí Doan Thi Houng de 28 años y la indonesina Siti Aistyah de 25 serían detenidas bajo la sospecha de que embarraron aceite de bebé en la cara de Kim Jong-nam. Les habían pagado noventa dólares por hacer una broma. Poco tiempo después esta foto sería publicada por la policía local.

La foto proviene, si seguimos a la información de la policía, de un zoom sobre una pantalla del servicio de videovigilancia del aeropuerto. En baja resolución, podemos ver la pose casual de una mujer capturada por la cámara accidentalmente. La imagen es borrosa, casi fantasmal. No hay nada en ella que nos diga que está en el aeropuerto. Es tan violento el zoom que pareciera flotar en un etéreo mar de pixeles oscuros. La persona retratada es Duan Thi Houng de 28 años. Famosa por sus participaciones en American Idol edición Vietnam, su último post de Facebook antes de que la apresaran fue: «Desearía dormir más a tu lado». Pero todo esto queda completamente atrás del impacto en nuestras retinas de la palabra LOL en su sudadera.

Esta imagen nos relata un pedazo de historia. Es histórica en el sentido de la palabra. Pero no parece aportar nada a la idea de que ella es la asesina, entrenada por los servicios secretos de Corea del Norte, o una simple actriz que contrataron para hacer una broma. Pareciera inscrita en el tiempo y a la vez completamente fuera de este. En muchas formas, la imagen parece más un montaje, un ready made. Hay algo que siempre excede a las imágenes, algo que siempre se nos escapa. Podemos sentir belleza, pero también una tremenda soledad.

Traigo a colación mi foto favorita del año, la de Duan Thi Houng, con todo y su bajísima resolución porque siento que esta me remite mucho al dilema de la foto de Maluma sosteniendo el libro de Camus. Lo que Maluma sostiene en todo caso es un gran LOL. No podemos adentrarnos en lo que Maluma intentó decir al posar con ese libro. El absurdo de la existencia, la imposibilidad de distanciar una foto verdadera de una falsa hace que la imagen se nos escape siempre que queremos adentrarnos a ella. Es el sinsentido de la vida, sinsentido para el cual Maluma es un farmakon. Me parece sintomático que lo primero que pensemos con ambas imágenes es que lo más probable es que no sean reales, pero lo que no hemos podido aceptar es que la realidad lleva ya tiempo superando a la ficción.

Tener sentido pero sin generar significado parece una constante. La imagen de LOL tiene sentido, vemos en los videos que la policía nos ha dejado ver, como alguien de blanco abraza a alguien más, en cierta manera valida la extrañeza de la imagen de LOL. También tiene sentido que Maluma lea. Pero qué significa que lea a Camus, y lo muestre en público: podría ser que el existencialismo para una celebridad de la que tenemos imágenes puramente hedonistas podría ser un golpe a mucho del imaginario que construye la disquera y la industria musical, o una burla a su público que no podría nunca acceder al estilo de vida que se ventila en el Instagram de Maluma.


Colofón

Si observamos la cantidad de retuits que tuvo el meme de @literaturainba o la cantidad de corazoncitos que consiguió la imagen en @londonqphotos podemos pensar un poco sobre nuestra labor como trabajadores en las redes sociales: el tuit no tiene más de tres mil retuits. Para una cuenta de ciento cincuenta mil seguidores, creo que el rendimiento de ese tuit que consideramos como viral fue bajo —más bien fueron las bromas o las quejas las que provocaron que Camus o Maluma fueran trending topic—. El caso para @londonqphotos es similar. Si bien la cuenta tiene más de veinticinco mil seguidores, la foto de Maluma, a tres semanas de haberla posteado, no ha llegado a los cinco mil corazoncitos. No sé bien a qué se le denomina éxito en las redes sociales, pero esos números no dejan de parecerme tristes. En cierto sentido detonaron el discurso, pero para nada tuvieron control de él. Lo que no logró en redirigir hacia las páginas de literatura del INBA lo logró en modificaciones de una imagen, que ni siquiera es reconocible como suya —aunque eso para mí significa el mayor logro de cualquier objeto cultural o artístico: que despierte en muchas personas la irremediable necesidad de modificarlo, de incrustarlas en el lóbulo frontal, formando así parte del imaginario.

 

Repensar la libertad de expresión

En una época en la que se han acelerado y diversificado los discursos racistas, misóginos, xenófobos y de difamación religiosa, argumentar a favor de la libertad de expresión se vuelve una tarea compleja. Las tecnologías de la información han agravado la problemática: privatizaron a gran escala las discusiones públicas y corporativizaron la exigencia en la protección de derechos. Esta dinámica ha dado como resultado una confusión generalizada sobre los discursos públicos y privados: sus límites, excesos y jurisdicciones.

La era digital ha amplificado las desigualdades políticas y sociales que existen en el “mundo real” entre sus usuarios. Si bien sus principios básicos son, de acuerdo con sus pioneros[1]: “nadie la posee, todos pueden usarla, cualquiera puede mejorarla”, la realidad es que los poderosos se vuelven más poderosos y los débiles, aunque participan de cierta conversación que antes les estaba negada, son cada vez más excluidos, en multitud, por los algoritmos y el sistema salvaje del corporinternet. Un fenómeno que, por supuesto, ocurre también fuera de la red: el sistema neoliberal ha precarizado la capacidad de ejercicio de derechos de millones de personas en tanto que a otras las ha privilegiado sin precedentes.

Hemos pasado décadas preocupándonos por el control estatal del discurso mientras que los espacios de internet han sido colonizados por las corporaciones de Silicon Valley. Ahora apenas pasa un día sin enterarnos sobre otra violación de los derechos humanos en relación con internet en algún lugar del mundo, ya sea por parte de actores estatales o de intereses privados (corporativos).

La noción de libertad de expresión en un mundo enredado se ha modificado hasta el desfiguro. Las leyes varían de región en región; los términos de servicio de las plataformas digitales son, en muchas ocasiones, más restrictivos que la ley -y tanto más poderosos-; la preocupación constante de inclusión ha aumentado la variedad de discursos circulantes, y el spin de odio se cuela en todo el espectro de la conversación pública. La libertad de expresión no es solo una cuestión de principio abstracto, sino que también es un aspecto de una lucha de poder entre fuerzas con ejes divergentes. De hecho, abordar cuestiones de libertad de expresión en abstracto o contextualmente es en sí mismo un aspecto de la lucha de poder subyacente. Aquellos que piensan que un enfoque abstracto les ayudará a ganar la batalla intentarán canalizar el debate por esa vía, y a la inversa para aquellos que piensan que un enfoque contextual ayudará. Incluso el partidario de principios de la libertad de expresión sin restricciones está involucrado en una lucha por el poder, si no por una ventaja material, quizás sí para crear un orden social basado en un discurso desapasionado y fluido.

Este panorama nos obliga a repensar las teorías generales sobre lo-que-se-puede-decir al tiempo que nos fuerza a imaginar un horizonte que refleje nuestras aspiraciones sociales.


Algunos enfoques de libertad de expresión

El mercado de las ideas

El relato clásico del mercado de las ideas aparece en el segundo capítulo de Sobre la libertad,[2] de John Stuart Mill. El enfoque de Mill es bien conocido, pero sus supuestos de fondo requieren alguna exploración. Según detalló Mill, la principal virtud de la libertad de expresión es su función instrumental en la búsqueda de la verdad. Aquellos que censuran o suprimen el discurso que creen falso, afirman una supuesta infalibilidad que no puede justificarse.

Las épocas anteriores a la Modernidad profesaban la certeza de las doctrinas que ahora se saben falsas —tal es el caso de la planitud de la Tierra o la alquimia—, y es una arrogancia injustificable que las sociedades futuras no miren hacia atrás y lean a Mill con la misma sorpresa de la gente que podía creer tales falsedades. Además, incluso si se pudiera demostrar que el discurso es objetivamente falso, este debe ser protegido de la censura sobre la base de que la expresión del falso discurso fortalece, en lugar de debilitar, la comprensión de las verdades. Una verdad que no se prueba constantemente contra las alternativas corre el riesgo de diluirse.

Una mirada coyuntural nos puede indicar que la llamada “posverdad” no es tal: la verdad es la suma de una serie de relatos en disputa que reflejan las relaciones de poder existentes.

Sin embargo, el interés de Mill por la libertad de expresión se extendió más allá de su relación con la verdad. La necesidad de contar con las demandas de verdad compitiendo era una parte clave del desarrollo intelectual individual. La censura no solo debilita las verdades, debilita, en el terreno de lo público, a las personas que apoyan esas verdades. Al permitir a los individuos experimentar y probar doctrinas alternativas, incluso las más equivocadas, la sociedad asegura que la verdad sea un consenso duradero.

El argumento del mercado de ideas es un relato explícitamente teleológico. Si bien es la condición humana la que sufre con los errores, hay una verdad que se puede derivar y que es independiente de ese proceso. Como tal, es vulnerable a los argumentos que apuntan a esa teleología. En primer lugar, como fundamento sobre el cual estructurar la protección institucional de la expresión, la teoría asume que la sociedad prioriza la búsqueda de la verdad sobre todos los demás valores. En segundo lugar, a pesar de su escepticismo acerca de la certeza de que la sociedad puede identificar las verdades, Mill asume que las verdades están por ahí para ser conocidas, y que el libre debate conducirá a esas mismas verdades.

La teoría de la libertad

Las defensas de la libertad de expresión basadas en ideales de autonomía y autorrealización datan, por lo menos, de la antigua Roma. Tácito describió la libertad como “cuando podemos pensar como queramos y hablar como pensamos”, colocando a la función del habla como una cuestión de satisfacción personal. La teoría de la libertad está plenamente enunciada en los textos de C. Edwin Baker. Baker, a diferencia de Mill, se refiere a extraer la justificación institucional específica para el habla de la Primera Enmienda. El discurso merece protección debido a su doble función, como parte necesaria de la autorrealización individual y como elemento sine qua non de la participación en la toma de decisiones sociales. El énfasis funcional de la teoría del mercado de las ideas excluye potencialmente más discurso que el protegido por la Primera Enmienda. Por ejemplo, es difícil justificar la obscenidad y la pornografía como necesarias para la búsqueda de la verdad.

El mercado de ideas tampoco protegería el discurso puramente privado, el que se hace para el entretenimiento o la autoexpresión (discurso de mayor peso en internet), o incluso el discurso político que no está formulado o es improbable que se comunique a otros. Sin embargo, la teoría de la libertad protege ese discurso bajo la justificación de que estas formas de expresión forman parte de la búsqueda de autonomía de un individuo.

La pregunta relevante para Baker no es si un discurso dado afecta el progreso hacia la identificación de la verdad, sino si funciona como parte de la autonomía de un individuo.

Teoría negativa sobre la dignidad

Una de las teorías más relevantes de los últimos tiempos es la de los daños del discurso de odio, enunciada por Jeremy Waldron, cuya preocupación se encuentra en justificar los límites del discurso público desde el enfoque de la dignidad del individuo o de un colectivo minoritario. La dignidad es entendida en The Harm in Hatespeech[3] como los atributos de una persona que le permiten presentarse con seguridad en lo público; en los casos de quienes pertenecen a una minoría, estos atributos —argumenta Waldron— son negados por la estructura social. Waldron comienza con la premisa de que en una “sociedad bien ordenada” no solo todas las personas deben estar protegidas por la ley, sino que tienen derecho a vivir seguras de esta protección. “Cada persona [. . .] Debe ser capaz de hacer sus negocios, con la seguridad de que no habrá necesidad de enfrentar la hostilidad, la violencia, la discriminación o la exclusión de otros”. El discurso de odio socava este bien público esencial. “Cuando una sociedad se ve desfigurada con la señalización antisemita, las cruces ardientes y los folletos raciales difamatorios”, dice Waldron, esta seguridad de protección “se evapora. Una fuerza policiaca o el Departamento de Justicia pueden impedir que las personas sean atacadas o excluidas “, pero los objetivos del discurso de odio, asegura el autor, las excluye de la certeza de que la sociedad las considere como personas de igual dignidad.

Cualquiera de estos enfoques es razonable en sí mismo. Cada cual tiene límites externos e internos que favorecen una mirada crítica del derecho de la libertad de expresión. No obstante, ninguno contempla a profundidad las nuevas dimensiones de la libertad de expresión en el campo digital. Anteriormente, los discursos/acciones que sucedían en Nueva York, París o Ciudad de México eran juzgados por las leyes nacionales e interpretados de acuerdo con una tradición jurídica dada y un contexto concreto. Hoy el mundo entero juzga cada discurso desde un código compartido de valores proveniente de las corporaciones que dan soporte a la difusión de esos discursos.


Los linderos de la censura

Afuera de las oficinas de la Organización de las Naciones Unidas (ONU), en Nueva York, el #FreeSpeechBus (“autobús de la libertad de expresión”) anunciaba una campaña abiertamente transfóbica: “las niñas tienen vagina, los niños tiene pene. Que nadie te engañe”. Auspiciado por la organización CitizenGO, la campaña ya había causado rechazo en Madrid al punto de que el autobús fue atacado.

Es interesante que la “libertad de expresión” en abstracto sea el mensaje principal del autobús. Bien pudo haberse llamado “el autobús de la homofobia” y, sin embargo, al usar #FreeSpeechBus como estandarte se puede activar lo que Cherian George ha llamado “el giro del odio”.[4] La operación es la siguiente: un discurso que pudiera ser considerado “de odio” es usado libremente a través de reivindicar la libertad de expresión y condenar la corrección política. Esto es, la estrategia busca que la repulsión se traslade de los homófobos hacia quienes defienden posturas más incluyentes. El discurso hegemónico fingiendo persecución.

Cabe apuntar que en este caso los matices se tornan demasiado difusos. Por un lado, tanto en la legislación estadounidense como en la interamericana, el discurso de odio no puede ser considerado como tal si no es posible probar un daño inminente por parte de quien lo emite. Esto es, un grupo nazi puede marchar en un poblado de mayoría judía sin que este discurso/acción sea considerado de odio (Brandenburg v. Ohio). A pesar de ello, se hace obligatorio denunciar la estrategia y exhibir con tanta fuerza como sea posible la operación de transferir la repulsión social hacia quienes piden que los discursos discriminatorios sean desterrados de lo público. Y, aun así, dejar que el autobús circule.

Un caso opuesto: en la última bienal de pintura del Museo Whitney, también en Nueva York, la pintora Dana Schutz presentó una obra titulada Open Casket. Se trata del retrato de una escena icónica en la historia de la lucha por los derechos civiles: el ataúd abierto de Emmett Till con la cara molida a golpes. La obra evade el realismo del rostro desfigurado y lo resuelve con pinceladas gruesas: una mancha por rostro. La obra generó polémica entre la comunidad afroamericana y de artistas participantes en la bienal. El reclamo contra Schutz es que se trata de una blanca “apropiándose” de la violencia histórica de la comunidad afroamericana en Estados Unidos. La pintura fue retirada del museo. Aunque oficialmente no se debió al escándalo sino a causa de una fuga de agua, el público ya no podrá ver la obra.

A diferencia del caso del #FreeSpeechBus en el que un grupo usa la libertad de expresión para avanzar un discurso discriminatorio, en este caso se usa la dignidad colectiva de los negros para censurar la pintura de una blanca.

Tenemos que ser cuidadosos al pensar las razones de la censura en el caso de la bienal. El discurso del arte se encuentra especialmente protegido —así como el discurso político— en distintos instrumentos legales y jurisprudencias. Más aún, se debe considerar que el campo cultural en sí mismo goza y debe gozar de la suficiente autonomía para que allí se generen las nuevas sensibilidades; esa autonomía de ser con respecto a la moral y los prejuicios de la época. El supuesto agravio a la dignidad de una comunidad no debe operar normativamente contra el arte.


El discurso en la web

La red masificó el ejercicio del derecho de libertad de expresión y agregó una nueva dimensión que ensanchó las capacidades individuales y colectivas de ejercicio de este derecho. Pasamos de un modelo de comunicación hiperlocal y disgregado hace diez siglos, a “uno para muchos” (desde la invención de la prensa hasta la última década del siglo XX) y ahora tenemos uno de “muchos para muchos” con internet.

La red—que ha trascendido la dimensión tecnológica y ha configurado un modo de pensar que prioriza las redes, una forma estética que descansa en lo inmaterial y la utopía política de la horizontalidad—ha sido, en las últimas décadas, la filosofía más disruptiva de la que tenga memoria el ser humano. El impacto de internet es profundo. Hoy la manera como nos concebimos y miramos nuestro entorno está trastocada por el mundo digital.

Como todo cambio fundamental, este ha venido acompañado de ciertas resistencias. No es difícil ver a intelectuales como Mario Vargas Llosa minimizar el poder de la red y evocar con cierta añoranza una nebulosa edad dorada.[5] A partir de la última década del siglo XX se consolidaron dos escuelas de pensamiento sobre la red y el ser digitales: por un lado, los pesimistas que juzgan el internet y las redes como herramientas que generan archipiélagos reflexivos, uniforman el saber e inciden de forma determinante en la estupidez masiva (o viral, diríamos hoy); por el otro, los optimistas que juzgan tales herramientas como los componentes de una aldea global, que alientan la diversidad de ideas y cuya consecuencia lógica, nunca mejor dicho, es la inteligencia colectiva.

Nicholas Carr pertenece a la última ola de pesimistas de las redes. Después de un famoso artículo publicado en The Atlantic, “Is Google Making Us Stupid?” [“¿Google nos vuelve estúpidos?”] ―en el que asegura que la velocidad del internet y la manera en como saltamos de una porción incompleta de conocimiento a otra están haciendo de la humanidad una masa sin raciocinio―, llevó ese mismo argumento a sus dos siguientes libros, uno homónimo y otro titulado The Shallows (Los superficiales), en el que hace una nutrida recopilación de evidencias para sostener sus fúricos argumentos. Sin embargo, los saltos lógicos que da para aterrizar sus conclusiones no poseen el sustento, vaya ironía, de evidencia alguna. Se trata de una buena y una mala noticia que debería ser un lugar común o un “dogma laico”: ni internet ni Google ni Twitter nos hacen más estúpidos de lo que ya somos.

La abundante bibliografía sobre redes sociales de los últimos años nos cuenta una historia distinta. Por ejemplo, que no toda información se dispersa de la misma forma en la red, sino que se trata de dinámicas complejas de formación de la opinión pública; que dicha formación está mediada por los atributos individuales, la influencia del ambiente y el flujo informativo; que la inteligencia colectiva no es una falsa ilusión y, por último, que las redes sociales aceleran la formación de consensos con una determinada distribución de los agentes difusores.

Los procesos inaugurados por los sistemas complejos de redes democratizan y distribuyen la información, de eso no cabe la menor duda. (Aunque ciertos usuarios sean estúpidos, el medio no lo es por la sencilla razón de que no constituye un ente racional.) En contraste, tenemos la no tan distante era de la televisión, en la que una privilegiada élite decidía qué se opinaba y quién debía hacerlo. Sobra decir que quienes consumían aquella información, embebidos en ella, eran incapaces de interpelar a sus “comunicadores”. El paradigma transitó de la escasez de información a su hiperabundancia. Estos procesos democráticos, así como la novedad de un mundo interconectado, no suelen ser asimilados por quienes tratan de explicar el mundo con la nostalgia de la autoridad perdida.

Todavía hoy existe quien se esfuerza en dividir el “mundo digital o virtual” del “mundo real” para describir las interacciones entre los individuos. Tal parece que siempre que alguien camina por la calle usando Google Maps es una casualidad el hecho de que ese “mundo virtual” (¿falso?) concuerde con la dirección exacta a la que el individuo se dirige. Los usuarios del “mundo virtual” ocupan espacio en el “mundo real” y ambos espacios se traslapan dando paso a una realidad aumentada: conexiones, información, opiniones y acciones tienen significado en uno o ambos mundos. La tecnología no desconecta a las personas sumergiéndolas en “mundos virtuales”, sino que aumenta la posibilidad de interacción. Algunas de estas interacciones ocurren en espacios físicos, otras solo tienen significado en los espacios contenidos virtualmente. Las que nos interesan se encuentran en la intersección de ambas. Y tenemos que reconocer que ya no podemos hablar de actividades en línea o actividades offline, dado que nuestra vida transcurre y toma forma en línea.

Las comunidades digitales se conforman por la capacidad individual de conectarnos. Partes que en conjunto forman este estado global llamado internet. Producimos y consumimos más información que nunca; servicios como Twitter no solamente nos permiten crear contenidos, sino socializar y ensamblar la información con propósitos determinados. Es una red social y una red de información donde seleccionamos de manera deliberada comunidades que curamos y configuramos. Con lazos más fuertes unas y con lazos más débiles otras, establecemos y somos testigos —como si se tratase de un panóptico—[6] del surgimiento de distintas comunidades. Influimos en nuestras redes al tiempo que somos contagiados por otros pequeños universos. Lo público se tornó íntimo, de allí que la nueva dimensión en el derecho tenga como resultado constantes confusiones.

Parafraseando la paradoja del árbol, ¿si alguien grita en una plaza vacía, realmente lo está haciendo? Exactamente este es el punto de inflexión en la libertad de expresión en la red. Siempre hay alguien del otro lado de una pantalla escuchando—por más vacía que esté la plaza— y ese alguien probablemente nos acompañe en nuestro grito. Aunque el tiempo vertiginoso de la era digital nos impida tomar distancia, lo anterior es una novedad sin precedentes. Tan solo hace un par de décadas la conciencia colectiva del ejercicio de derechos estaba mediada por la prensa y aun antes era imaginaria. Es por ello que el sistema internacional de derechos humanos (nacido en un mundo predigital pero globalizado por la guerra), mediante las relatorías para la libertad de expresión, reconoce a internet como una “herramienta transformadora” de la vida de las personas.

Esta herramienta transformadora colocó a la expresión en un nuevo plano, y parte de los elementos clásicos del Estado, el territorio, la sociedad y el gobierno, se ven afectados por la red en tanto que ahora el individuo responde de manera simultánea a las leyes nacionales y a las reglas impuestas en las comunidades virtuales, ya sea por parte de las corporaciones o por los mismos integrantes.


Una disputa de poder

No importa si el enfoque desde el que defendemos la libertad de expresión intenta reforzar nuestra autonomía o promover la dignidad de un grupo minoritario, lo cierto es que se trata de una lucha de poder. Esta disputa se lleva a cabo en el espacio público y en el mundo virtual; participa de actores estatales, no estatales y corporaciones; y, por último, desactualiza constantemente los límites y caminos de la libertad de expresión. ¿Quién habla? ¿Quién escucha? ¿Quién protege?

Aquí la lucha de poder se da entre aquellos que ven la verdad como una pregunta abierta y los que no; entre aquellos que tienen mayor acceso a los medios de comunicación y los que tienen menos. La lucha contra el racismo o el sexismo es ilustrativa de esta batalla. Supongamos que una sociedad con una historia de racismo y sexismo como Estados Unidos ha hecho algunos avances en la lucha contra estos males, pero que ahora están resurgiendo y están siendo promovidos desde el poder: el reloj va de vuelta. Supongamos además que, aunque los blancos y los varonen siguen predominando en la política, las minorías y las mujeres (y sus aliados) han alcanzado el poder suficiente para lograr cierta contención en el discurso racista y sexista. Aparte, los actores corporativos juegan un papel preponderante: ya no es solo el Estado el que regula la ley, ahora también es el algoritmo programado por las creencias de los CEO. En este contexto, pensar una única solución es una tarea compleja e incompleta.

La libertad de expresión en el neoliberalismo se encuentra trastocada. La contracción del Estado y la suplantación de sus tareas por las corporaciones ha precarizado la vida pública. El mercado de las ideas ya no tiene bases comunes para desarrollarse, la autonomía cada vez es más relativa y las subjetividades de la dignidad cada vez se encuentran más excluidas de la conversación pública. Si es así, ni el diálogo ni la regulación del discurso racista y sexista bastarán para eliminar el racismo y el sexismo, son necesarios cambios en las condiciones sociales que están en la base. Tanto el racismo como el sexismo, por ejemplo, pueden surgir en las culturas no igualitarias como un medio para justificar la desigualdad, proteger el estatus de los privilegiados, crear clases desfavorecidas que soporten el peso de las dificultades de la sociedad, poner a los oprimidos unos contra otros. Si es así, entonces el racismo y el sexismo probablemente permanecerán mientras la desigualdad persista, o en la medida en que disminuyan quizá serán reemplazados por alguna otra forma de opresión.


Plataformas y consecuencias

Hasta aquí parece haber un consenso: la libertad de expresión no significa libertad para emitir discurso de odio. La libertad de expresión no garantiza una plataforma de difusión. Y la libertad de expresión no significa que el habla esté libre de consecuencias. Todo lo anterior puede ser cierto dependiendo de lo que se entiende por “consecuencias”, “plataforma” y “discurso de odio”.

El reciente caso de Marcelino Perelló en la UNAM podría servir de ejemplo. Aunque su discurso no puede ser considerado legalmente como “de odio”, es un mensaje chocante con un alto índice de misoginia que pretende, en su lógica, contrarrestar los problemas derivados de que un juez refrende el machismo social. Su plataforma, Radio UNAM, auspiciada con dinero público, reaccionó después de unos días en cuanto el escándalo se armó en las redes sociales, y despidió a Perelló. Aquí son claras las consecuencias que puede tener un discurso chocante, y la importancia de la plataforma desde donde se emite.

Las plataformas públicas tienen las mismas obligaciones del Estado frente a la libertad de expresión. Por un lado, no pueden ser más restrictivas que la propia ley —libertad que sí pueden darse las plataformas privadas— y por el otro, deben promover un discurso que fomente los derechos humanos, rechace la discriminación de forma contundente y se asegure de ser diverso y plural.

Las redes sociales lo cambiaron todo. El discurso es una doble hélice cuyos elementos corren en sentido contrario. Twitter o Facebook han amplificado este efecto, no se es capaz nada más de observar la formación de opinión pública, sino que se es contagiado de forma simultánea por otras corrientes de información. Este efecto es espacialmente problemático cuando se trata de hablar de límites y jurisdicción, pues el discurso emitido en redes viaja a nivel global tocando diferentes límites, pero no está sujeto a una jurisdicción más allá de los propios límites de la compañía —en muchas ocasiones la moral del Silicon Valley es más conservadora que la propia ley—.

Entonces la doble hélice se acelera. Cada mensaje emitido entraña al mismo tiempo una posibilidad de que sea usado en contra de quien lo emite. En algunas ocasiones son las plataformas virtuales las que controlan estos efectos. El caso de Twitter y su enfoque hacia el discurso de odio es un buen ejemplo: en Alemania está proscrito el discurso que niega el Holocausto, entonces cualquier tuit emitido allí y reportado en este sentido es censurado por la plataforma en aquel país, pero resulta visible para el resto del mundo con un aviso de que fue borrado en su lugar de emisión. Esta solución tecnológica es útil y peligrosa si pensamos a la compañía como sustituto del Estado o del ámbito público.

Un caso todavía más complejo es el de Milo Yiannopoulos, cuyas conferencias en los campus universitarios en Estados Unidos han causado una indignación mundial por medio de las redes sociales. El discurso de Yiannopoulos se encuentra en los límites de la Primera Enmienda —el sistema de libertad de expresión que raya en lo absoluto— al ser a la vez discriminatorio, misógino, violento, supremacista blanco y fascista. Eso significa que los activistas de izquierda que gastan energía en oposición a Yiannopoulos, en lugar de ignorarlo están cayendo en una trampa. Él los está ofendiendo intencionalmente, y ellos están jugando. Tratar de detenerlo a la fuerza no ha hecho sino mejorar las ventas del libro que contiene sus “ideas”: las ventas de Dangerous subieron en 12,740% después de la censura en Berkeley.

Si se va a argumentar que sus conferencias deben seguir, es fundamental no normalizar lo que se dice en ellas. Pero, ¿hasta dónde se puede tolerar que estas ideas circulen? Ha habido voces en la izquierda que han dicho que el fascismo debe ser detenido incluso a golpes y con violencia. La pelea, en todo caso, sería enormemente desigual: en la calle, una pelea entre un neonazi y un progresista probablemente mataría al progresista; los que defienden “ideas” de supremacismo serán siempre los más brutales.

Las palabras de Yiannopoulos pueden incitar al odio contra ciertas comunidades de por sí marginadas y excluidas, generando así un ambiente de inseguridad generalizado. Hay que decirlo también: el discurso de Yiannopoulos no es una excentricidad, es la expresión de una mayoría que hoy detenta el poder en Estados Unidos. Es por ello que impedirle hablar podría generar incluso más odio. Al aceptar la censura de individuos impresentables como Yiannopoulos, preparamos nuestra boca para el bozal. Con Donald Trump como presidente es crucial que se abrace la libertad de expresión radical en la mayor cantidad de plataformas posibles.


Es claro que se deben repensar los derechos a la luz de los efectos del neoliberalismo y la era digital. Al aumentar la cantidad de personas que participan en la conversación pública de forma global, los afectos y entendimientos vinculados a la libertad de expresión y sus actores aumentan también. Hoy Twitter —y no una corte— defiende a los críticos de Trump frente a la requisición de datos de los censores; Yiannopoulos es expulsado de las universidades y en Europa más discursos son proscritos. Nada de esto ha prevenido la aparición de Trump o Le Pen o los trolls en las redes. Internet es una válvula de escape para los discursos más incendiarios y al tiempo es la posibilidad de construir nuevas narrativas del mundo. ¿Deberíamos cerrar los blogs antisemitas o nazis?  ¿El principio de la libertad de expresión solo se aplica a la represión del gobierno, o los actos privados también pueden amenazar la libertad de expresión? Si las corporaciones poderosas como Twitter son los nuevos guardianes de la plaza pública, sus decisiones afectan los derechos de voz. ¿Hasta qué punto el hecho de tener el derecho de hablar requiere tener la capacidad de hacerlo? ¿Qué pasa con el hecho de que la cantidad de discurso que obtiene un individuo depende de la cantidad de dinero que tiene? La infraestructura donde fluye el discurso debe ser nuestra, no podemos permitir la privatización de los derechos humanos (donde los CEO’s son los jueces). Quizá tendríamos que pensar en expropiar Google, Facebook y Twitter a favor del interés público.


[1] Doc Searls y David Weinberger. (2003). Un mundo de extremos. Qué es internet y cómo dejar de confundirla con otra cosa.

[2] John Stuart Mill. (2002). On Liberty. Estados Unidos: Dover Publications

[3] Jeremy Waldron. (2012). The Harm in Hate Speech. Estados Unidos: Harvard University Press.

[4] Cherian George. (2016). Hate Spin: The Manufacture of Religious Offense and Its Threat to Democracy. Estados Unidos: The MIT Press.

[5] Notablemente encuentro esta columna en El País como uno de los desvaríos más grandes de MVLL, que profundiza en el ensayo La civilización del espectáculo (Alfaguara, 2012), sobre una supuesta robotización del ser humano y una decadencia abrumadora de la cultura: http://elpais.com/diario/2011/07/31/opinion/1312063211_850215.html

[6] En 1791, el filósofo Jeremy Bentham diseñó lo que consideraba una cárcel perfecta: el panóptico. En esta novedosa prisión un vigilante podría observar a todos los prisioneros —o no— al mismo tiempo. Sin otra herramienta más que la arquitectura, se actuaba directamente sobre la conducta de los individuos: al ignorar en qué momento eran vigilados, su comportamiento se modificaba.

México conectado: más internautas, mismas brechas


El presente texto forma parte del informe Derechos digitales en México: ganadores y perdedores de la reforma en telecomunicaciones realizado por Horizontal.

El Estado mexicano reconoce el acceso a internet como un derecho, pero como no pocos derechos éste no se encuentra homogéneamente distribuido en su ejercicio dentro de la población. La desigualdad en el acceso a internet responde aún a factores como la educación, el ingreso, la edad y el género, acentuando las diferencias entre grupos marginados y grupos privilegiados. Al tiempo, al confrontarse con mayores restricciones presupuestales y de acceso, los mexicanos de menores ingresos muestran un mayor dinamismo en la sustitución de tecnologías: de líneas fijas a líneas móviles, y ante la imposibilidad para acceder a internet y computadoras en sus viviendas, un uso más intenso de datos móviles. La estrategia digital de la presente administración se planteó como una política dirigida a reducir estas brechas; sin embargo, no hay datos que permitan evaluar con precisión si este efecto ocurre, y los datos disponibles no dan indicios de que hoy, y gracias a ello, las desigualdades digitales se hayan reducido.

El nivel de escolaridad es un elemento fundamental que separa a las personas que tienen acceso a internet de aquellas que no tienen. El 5.44% de la población mexicana, según datos de la ENDUTIH, no completó ningún nivel de estudios; de estas personas, solo el 2% se ha conectado a internet en el último año. Comparativamente, el 97.3% de las personas que concluyeron un posgrado se conectaron a internet en el mismo periodo.

La brecha en conectividad entre diferentes grupos de edad es igual de marcada que la brecha por nivel de escolaridad. Mientras que el 83.4% de las personas de 15 a 29 años de edad se conectaron en el último año, independientemente de nivel de ingresos o escolaridad, solo el 9.8% de las personas mayores a 65 años lo hicieron. Del mismo modo, el nivel de ingresos es un fuerte determinante de quién se puede conectar a internet; y de cuánto tienen que gastar quienes se conectan: a menudo el costo de estar conectado es regresivo. Esto quiere decir que, aunque menos personas de bajos ingresos se conectan a internet, les cuesta más hacerlo que a la población con mayores ingresos. Mientras que el octavo decil de ingresos, es decir, el 30% de la población que más ingresos recibe, gasta poco más de $200 mensuales en internet, en el primer decil, es decir, el 10% que tienen menos ingresos, quienes pagan por conectarse a internet gastan en promedio $238.84 pesos mensuales. Para el octavo decil, esta cifra representa solo el 1.25% de su ingreso, mientras que para el primer decil representa el 13.58% del gasto promedio. Esto puede deberse a los altos costos implicados en pequeños consumos (i.e. tarjetas de celulares, cafés internet, etc) vis a vis el costo relativo de consumos en planes fijos.

El acceso a internet en México sigue estando supeditado mayormente al consumo de telefonía fija, por lo que independientemente del nivel de ingreso de las personas, el método más popular para conectarse a internet es telefonía fija. Sin embargo, para bajos niveles de ingreso, los servicios móviles se presentan como un bien sustituto. A menor ingreso, más proporción de los usuarios de internet se conectan solo por medios móviles. Si dividimos a la población mexicana en cinco, usando el número de focos en su vivienda como sustituto de medición de ingreso, entonces vemos que, en el quintil de menores ingresos, aunque solo el 15.54% de las viviendas se conectan a internet, el 20.9% lo hace únicamente con medios móviles. En cambio, en el quintil de mayores ingresos, solo el 5% se conecta exclusivamente mediante de dispositivos móviles.

La diferencia entre las personas que usan conexiones móviles y las que usan conexiones fijas no tiene solo que ver con su nivel de ingreso, puede también ser producto del estado de la República en el que viven. Mientras que el promedio nacional es de 2.09% de usuarios exclusivos de conexiones móviles, en Yucatán, el 16.4% de la población se conecta utilizando solamente una conexión móvil. En el extremo opuesto está Veracruz, estado en el que el porcentaje de conexiones móviles no llega siquiera al 1%.

El programa México Conectado pretende cerrar esta brecha de conectividad que se vive entre distintos niveles de ingreso y escolaridad, de edad e incluso entre lugares geográficos. Analizar si los esfuerzos del programa se enfocaron en los lugares que más lo necesitaban es complicado. No existen datos municipales que nos permitan comparar número de usuarios antes y después del programa. A nivel municipal, contamos con datos de conectividad en viviendas, en las cuales el programa no pretende tener un efecto directo dado que se basa en puntos fijos de acceso gratuito a internet. A nivel de usuarios contamos solamente con datos estatales. Analizando estas dos fuentes de información podemos ver que la mayoría de los centros fueron construidos en entidades donde había una penetración media de usuarios de internet y en municipios con muy bajo acceso de viviendas a servicios de conectividad; y que el crecimiento en usuarios y viviendas con acceso es casi idéntico independientemente de la intensidad en la presencia de centro de conexión del programa.

La tendencia nacional entre 2010 y 2015, tanto en municipios como en entidades, fue de un aumento en la cantidad de usuarios y viviendas conectadas, sin embargo, los lugares con menos acceso a internet no lograron cerrar la brecha con los de más acceso, incluso después de la intervención gubernamental. Si bien en el 2014 mejoró significativamente la conectividad a internet, al medir tanto usuarios como viviendas, independientemente de la penetración previa al programa que hubiera tenido de internet esa zona, sigue habiendo en el país una gran desigualdad de acceso a internet y, por ende, de acceso al conocimiento. El acceso desigual a internet replica y perpetua la desigualdad económica del país.

En este reporte, empezamos comparando qué tan conectados están los mexicanos, comparados con los ciudadanos de otros países, para enmarcar el análisis nacional dentro del contexto internacional. Posteriormente desagregamos la información existente sobre conectividad en México, para entender quiénes y cómo se conectan en el país. Hacemos esto prestando principal atención a las desigualdades de acceso que hay entre niveles de ingreso, género, nivel educativo y regiones geográficas. Finalmente, concluimos con un análisis de la estrategia del programa “México Conectado”, en el cual planteamos responder dos preguntas: ¿El programa se dirigió a los lugares que más lo necesitaban? Y: ¿Se puede observar un efecto en usuarios a partir de la implementación del programa?


México en contexto internacional: justo en su lugar

El mundo se ha conectado. En los últimos 15 años el promedio mundial de personas con acceso a internet pasó de alrededor de 10% en 2000 a una cifra cercana al 50% en el 2015. En la mayor parte de estos años, México se mantuvo por debajo del promedio mundial. No fue hasta el año 2013 cuando México cerró la brecha, alcanzando un 43.5% de penetración en usuarios de internet. Sin embargo, el país no mantuvo el ritmo, pues durante 2013 y 2014 se situó una vez más por debajo del promedio entre países, hasta que en 2015 volvió a repuntar.

¿Es México un caso aislado? Si comparamos a México con otros países similares como Brasil, Chile, Colombia y Turquía encontramos distintas trayectorias de conectividad. México sobrepasó el promedio mundial brevemente hace apenas tres años, para que en 2014 se situara una vez más por debajo y volviera a superarlo en 2015. Por el contrario, los otros países similares lo cruzaron mucho antes. Chile durante todo el período se ha mantenido por encima del promedio mundial. En el año 2000 tenía una penetración de 16.6% y para el año 2015 ese porcentaje creció hasta 64.3%. Brasil se situó por encima del promedio mundial hasta el año 2006. En ese año, el 28.2% de la población brasileña tenía acceso a internet, mientras que a México le tomaría cuatro años más alcanzar una cifra mayor a esa. Turquía por su parte superó el promedio de los demás países en el año 2007 y se mantendría por encima desde entonces. La trayectoria de Colombia resulta más interesante: se mantuvo con porcentajes por debajo de todos los demás hasta el año 2007. En el año 2000, Colombia tenía un porcentaje de penetración de internet de apenas el 2.2%. En 2007 superó a México por una décima, con 21.8% contra 21.7%. Para 2010 logró dejar atrás al promedio mundial en ese entonces de 34.8% alcanzando un nivel de penetración de 36.5%. México solo superaría a Colombia hasta el año 2015, donde el 57.4% de la población del primero tuvo acceso a internet y el porcentaje colombiano fue de 55.9%.

1

Un buen indicador para medir riqueza en un país es el PIB per cápita, el cual mide el valor total de la producción de bienes y servicios del país dividido entre su población. La razón para utilizarlo es la misma lógica anterior: ver qué tanto es parecido o se aleja el porcentaje de la población con internet en México en comparación con países, con niveles similares de ingreso y ver cuál es la relación que existe entre usuarios de internet y PIB per cápita. La siguiente gráfica muestra esa relación, se eliminaron tres observaciones: Luxemburgo, Noruega y Qatar, los países con el mayor PIB per cápita del mundo ya que las economías de estos tres países (centro financiero y economías petroleras) son excepciones y no reflejan necesariamente las dinámicas que operan entre el PIB per cápita y la tasa de usuarios de internet en el país por 100 mil habitantes.

2

México se sitúa en un nivel medio de ingreso, con un PIB per cápita de $8,521.9 dólares (PP a dólares de 2005) datos del Banco Mundial y con una tasa de 44.9 usuarios de internet por cada 100 habitantes. Los cinco países con un PIB per cápita más parecido al de México son: Panamá, Turquía, Uruguay, Argentina y Gabón. Entre ellos Argentina, Uruguay, Turquía y Panamá tienen tasas más altas de usuarios de internet por cada 100 habitantes. El valor es de 64.7 usuarios por cada 100 habitantes en el caso argentino, en Uruguay la tasa es de 61.5, y en Turquía 51 personas por cada 100 se conectan a internet, en Panamá el valor más cercano la tasa es de 44.9. Gabón se sitúa muy por debajo con una tasa de 9.8 usuarios de internet por cada 100 habitantes. Islandia tiene la tasa de penetración más alta: 98.1, seguido de las Bermudas con 96.8 y Dinamarca con 95.9 usuarios por cada 100 habitantes. Es importante notar que, si bien México se sitúa en un nivel medio de ingreso como de tasa de usuarios de internet, hay treinta países que, con un PIB per cápita inferior, logran tener una mayor tasa de usuarios de internet por cada 100 habitantes. Entre estos países se encuentran: China, Colombia, Rusia, Uruguay, Serbia, Vietnam y Brasil.


¿Quiénes y cómo se conectan en México?

El acceso a internet, como el acceso a otros bienes de consumo, no es igual para todos en México; está diferenciado por características generacionales, de escolaridad, de género, ingreso e incluso geográficas. Al analizar las diferencias sociodemográficas entre estos grupos, podemos ver de manera más clara quienes son los que pueden hacer uso de estas herramientas de manera más fácil y quienes se están quedando rezagados en materia de conectividad.

En México hay varias fuentes para saber quiénes están conectados a internet, la que permite un mayor grado de desagregación sobre las características de los usuarios es la ENDUTIH (Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de Información en los Hogares) realizada por el INEGI por primera vez en el año 2015, sin embargo, hay resultados desde el año 2001, ya que anteriormente se había aplicado como un módulo. La encuesta es representativa a nivel nacional, estatal, y para 32 ciudades.


Diferencias en acceso a internet según la edad de los usuarios

Una de las variables que afecta la conectividad de los usuarios es la edad. Es común pensar que quienes están más conectados son los jóvenes y es cierto: los jóvenes de 15 a 29 años son el grupo de edad con el menor porcentaje de personas sin conexión; solo el 16.6% de ellos no se conectó a internet en el último año. Para el grupo de los 30 a 44 años el porcentaje de no conectados en el último año asciende a 36.3% y a partir de ahí sigue creciendo: 63.98% para quienes tienen de 45 a 64 años y crece hasta 90.2% para las personas de 65 años o más. Las afinidades, las exigencias en su vida cotidiana de estudio o trabajo, o la facilidad para adoptar la nueva tecnología, podrían ser algunas de las razones para que exista la brecha de conectividad en diferentes rangos de edad.

3

Existen muchas maneras de conectarse a internet: por computadora de escritorio, por smartphone, tableta o computadora portátil. El medio por el que una persona se conecta varía dependiendo del grupo de edad al que pertenece. Para dos grupos de edad: quienes tienen menos de 14 años y para quienes tienen más de 65, es más común conectarse mediante una computadora de escritorio. En cambio, para los demás grupos de edad, es más común conectarse por medio de un smartphone. Por ejemplo, en el caso de las personas de entre 15 a 29 años (el grupo más conectado), 20.4% se conectó usando únicamente un smartphone, mientras que apenas el 2.8% utilizó solo una computadora de escritorio. El porcentaje de quienes utilizaron ambos medios fue de 22.5%, es decir poco menos de los que sólo utilizaron un teléfono inteligente.


Diferencias en acceso a internet según el nivel de escolaridad de los usuarios

Para las personas, más educación significa una mejor conectividad. El efecto de grado de escolaridad es muy notorio: de las personas que no tienen estudios, solo el 2% se conectó a internet en el último año, mientras que el 97.3% de las personas con estudios de posgrado se conectaron a internet. El porcentaje de personas que se conectaron a internet con un nivel de estudios de preescolar y primaria es de 30.4%. Ese porcentaje continúa creciendo a la par del grado de estudios: 58.3% para los alumnos de secundaria, se dispara hasta 82.9% para los de preparatoria y sigue creciendo hasta 91.2% para quienes cuentan con estudios de licenciatura.

4

Un smartphone y alguna combinación de éste con una computadora de escritorio o portátil es el medio más común entre los distintos grupos de escolaridad. Del 2% de los conectados sin escolaridad, la mitad se conectó por un smartphone. Entre quienes tienen un grado de estudios hasta preescolar y/o primaria, el porcentaje es de 7.6%. Conectarse con un Smartphone vuelve a ser el medio más común para las personas con secundaria, 19.8% lo utilizan para acceder a la red. Entre las personas con mayor grado de escolaridad, es más común utilizar más de una de estas categorías, la manera más común de conectarse para 20.5% de los que cuentan con preparatoria es mediante un smartphone y una computadora de escritorio. A nivel licenciatura y posgrado, la combinación más frecuente es conectarse utilizando un smartphone y una computadora portátil, siendo 32% para el caso de licenciatura y 38% para el nivel de posgrado.


Diferencias en acceso a internet según el género de los usuarios

Otra de las diferencias entre quienes están conectados a internet es género. Los hombres están ligeramente más conectados que las mujeres. La brecha entre ambos es de 4%, mientras que el 46.2% de las mujeres no se conectó a internet; en el caso de los hombres es de 42.2%. A pesar de esto, los datos sobre el tiempo que llevan usando internet indican que la brecha entre ambos se está cerrando. El 75.2% de los hombres lleva usando internet por más de dos años y tan solo el 8.7% de ellos es usuario en un período menor a un año. En el caso de las mujeres, el 10.8% de ellas son usuarias recientes (en un período menor a un año), el 16.7% se ha conectado a internet en un período entre uno y dos años y el 72.5% de las mujeres lo ha hecho en un período de más de dos años.

5


Diferencias en acceso a internet según el ingreso de los usuarios

A pesar de que la ENDUTIH no cuenta con ninguna pregunta explícita sobre ingreso, es posible hacer estimaciones de manera indirecta. Se pueden utilizar indicadores como el número de focos en la vivienda y/o tenencia de automóvil para aproximarnos de manera indirecta al ingreso de las personas. Usando ambas medidas, se observa que, a mayor ingreso, mayor conexión a internet. En el quintil más bajo de ingreso, usando número de focos como sustituto de ingresos, el 84.46% de las viviendas no tienen conexión a internet. Estas son viviendas que tienen en promedio 3.1 focos. En contraste con esta baja conectividad, solo el 19.79% de las viviendas en el quintil de ingreso más alto no tienen acceso a internet. Este grupo de viviendas cuenta con 16.6 focos en promedio.

6

Para todos los quintiles de ingreso, el tipo de conexión más común del que disponen en el hogar sigue siendo un medio fijo. La diferencia entre el porcentaje de viviendas que se conecta solo por medio fijo entre quintiles es muy poca. De todos los hogares del primer quintil que se conectan a internet, el 61% lo hacen solamente por medios fijos, mientras que el 51% de todos los hogares que se conectan del quinto quintil, el más adinerado, lo hacen únicamente por medios fijos. El ingreso importa en la cantidad de viviendas que se conecta a medios fijos, pero la proporción dentro de los que se conecta solo por estos medios, no varía dramáticamente con el ingreso.

Sin embargo, en la telefonía móvil, en efecto del ingreso es evidente. Dentro de las personas del quintil más rico que se conectan, el 5% lo hace únicamente a través de dispositivos móviles, mientras que la proporción para el quintil con menos ingresos es del 20.9% que se conectan solo usando estos dispositivos. Mientras que el 43% de las personas del quintil más adinerado que se conecta, lo hace tanto por medios móviles como fijos, solo el 16% del quintil menos adinerado usa los dos medios. Las personas con menores ingresos, se conectan mucho menos y en una mayor proporción con medios móviles.

7

La segunda medida que se utilizó para tratar de medir ingreso fue la tenencia de automóvil en la vivienda. Los resultados son similares a los obtenidos cuando se utilizó el número de focos en la vivienda como medida de ingreso. Aquellos hogares con automóvil, que factiblemente cuentan con mayores ingresos, están más conectados a internet. La gran mayoría, el 72.4% de quienes no tienen un automóvil propio en su vivienda tampoco cuentan con una conexión a internet. Para quienes sí poseen un auto propio, el porcentaje de viviendas no conectadas se reduce hasta un 35.9%. Entre quienes sí se conectan, el medio más común es el medio fijo, representando el 16.5% para las viviendas sin automóvil propio y 36% para las que sí cuentan con uno. Donde también hay diferencias es en las viviendas que disponen de ambos tipos de conexión, ese porcentaje es de 22.9% contra 6.4%, entre los que tienen y los que no tienen automóvil propio. Los porcentajes de quienes sólo se conectan por un medio móvil son similares como en el resultado anterior, 4.5% para los que no tienen auto y 4.9% para los que sí.

En ambas medidas de ingreso hemos observado que el medio más común para conectarse sigue siendo un medio de conexión fijo. Dentro de las distintas maneras de conectarse por un medio fijo, conectarse usando una línea telefónica (62.2%) es el más frecuente, le sigue la conexión a internet por cable la cual representa un 25.7%. El 12% restante se divide entre una conexión satelital, DIAL-UP y una señal de Wifi externa al hogar principalmente. Esto implica que si la mayoría de las personas en México accede a internet por una conexión fija probablemente lo estén haciendo también por medio de una línea telefónica.

8

Hasta ahora se han identificado diferencias entre los usuarios de internet en México dependiendo de su edad, escolaridad, género e ingreso. Los propios usuarios en la ENDUTIH, identificaron las causas por las cuales no tienen acceso a internet, y son en su mayoría causas que están relacionadas con las variables descritas anteriormente. La principal causa por la cual una persona no dispone de internet en México es porque no puede pagarlo. Esa opción significó el 58.1% de las respuestas en la EDNUTIH. El no tener ingreso suficiente para solventar los gastos de internet, probablemente esté relacionado con las diferencias en conectividad que observamos cuando analizamos escolaridad. La segunda causa más común con 24.7%, fue el no tener interés o no saber usarlo, lo cual está relacionado con la brecha que identificamos en escolaridad y edad.

9

Si bien en la ENDUTIH no hay explícitamente una medida de ingreso dado que no es su objetivo principal, sí hay en México otros instrumentos que se utilizan normalmente para estimar el ingreso en los hogares. La Encuesta Nacional de Ingresos y Gastos en los Hogares, es la fuente principal para determinar ingreso en los hogares mexicanos. Los resultados de la ENIGH son representativos a nivel nacional y para algunos años también a nivel urbano, rural y estatal.

Con base en los ingresos mensuales registrados en la ENIGH es posible estimar deciles de ingreso para los hogares. La encuesta permite también identificar el monto que gastan en promedio los hogares en distintos bienes y qué porcentaje de su ingreso representan esos gastos.

El gasto promedio mensual en los hogares del decil uno en internet es de $238.8 pesos, cifra que no se aleja mucho de lo que gastan en promedio los hogares del decil diez la cual es de $300 pesos. El gasto en este rubro significa porcentajes muy diferentes para cada uno, mientras que para el decil uno representa el 13.6% de su ingreso mensual, para el último decil representa solamente el 0.6%.

Si se analiza también el gasto en el hogar en bienes similares o en los casos en que el internet viene acompañado de otros servicios (teléfono, t.v. de paga, etc.), los resultados son los siguientes:

10

11

Si se trata de un paquete de cable, teléfono e internet, el gasto promedio para el primer decil es de $434.4 pesos, representando un 24.7% de su ingreso, mientras que el décimo decil gasta en promedio $755 pesos en este rubro lo que representa un 1.4%. Por otra parte, el decil uno gasta en promedio $370.9 pesos en paquetes que solo incluyen internet y teléfono, en proporciones eso significa un 21% de su ingreso mensual.

En el caso de un plan de celular mensual, resulta ser que el primer decil, compuesto de las personas con los menores ingresos, gasta más que los deciles dos y tres. En promedio el gasto por un plan de celular mensual es de $381.5 para el decil uno y de $1111.8 para el decil diez. El primer decil no solo gasta en promedio más cada mes en este rubro, sino que también gasta más en su pago inicial del plan o pago por la compra del equipo celular. El segundo decil eroga en promedio $231.9 pesos por inicio de plan o compra del equipo, el tercer decil gasta en promedio $200.4 pesos por el mismo concepto, sin embargo, el primer decil gasta en promedio $284.8 pesos. El décimo decil gasta en promedio un total de $1914.4 pesos por iniciar un plan de renta mensual celular o por la compra de un equipo.

Hasta aquí hemos identificado al gasto como una de las principales restricciones que enfrentan las personas en México para tener acceso a internet. El gasto es finito y la decisión entre un bien y otro refleja tanto la restricción a la que se enfrentan las familias como las preferencias de éstas sobre los bienes. La Encuesta Intercensal del INEGI realizada en el año 2015, contiene información sobre distintas variables sociodemográficas y el acceso a ciertos bienes en las viviendas. Así podemos identificar la distribución de municipios con base en el porcentaje de viviendas en ellos que poseen o carecen de bienes relacionados a tecnologías de información e internet.

La tenencia de automóvil en la vivienda fue utilizada anteriormente como una variable para aproximarse al ingreso, además también se identificó que a mayor ingreso mayor conectividad. La siguiente gráfica muestra esa relación, pero a nivel municipal. La mayoría de los municipios tienen porcentajes bajos de acceso a internet, menores al 20% de viviendas con ese servicio. De hecho, el promedio municipal es que solo el 12% de las viviendas en un municipio tengan acceso a internet. Cabe hacer mención que se trata de un indicador con enorme varianza, que incluye municipios sin conectividad y municipios donde casi 8.2 hogares de cada 10 tienen internet (para ver las diferencias regionales en acceso a internet ver la siguiente sección). Así como la mayoría de los municipios tienen porcentajes menores al 25% en acceso internet, la mayor densidad en tenencia de automóvil se concentra en los porcentajes menores al 45%.

12

En México el principal tipo de conexión por el que las personas acceden a internet sigue siendo un medio fijo y en su mayoría una línea telefónica, lo que indicaría una relación más lineal entre ambas variables dado que una es el medio tradicional para acceder a la otra. En la gráfica se observa la alta densidad de los municipios con bajos porcentajes tanto de internet como de telefonía fija. En otras palabras, en la gran mayoría de los municipios mexicanos poco menos de 30% de las viviendas cuenta con una línea telefónica y con internet.

13

La telefonía celular parecería ser una opción a la que un mayor número de viviendas tienen acceso en México. La mayoría de los municipios tienen porcentajes mayores al 40% y menores al 80% de sus viviendas con celular. A diferencia de la gráfica anterior, esta gráfica muestra municipios con porcentajes altos de viviendas con celular, (reflejado en mayores concentraciones a la derecha de la gráfica). Hay también una pequeña concentración de municipios que no tienen acceso a ninguno de estos dos bienes.

14

El promedio municipal de viviendas con celular es de 57.4%, es por eso que, al comparar la tenencia de celular con otros indicadores, se sigue observando la alta concentración de los municipios en porcentajes altos. Por ejemplo, al cruzar el porcentaje de viviendas con celular y el porcentaje de viviendas con automóvil se ve una clara concentración de porcentajes altos para el indicador de celular, aunque no necesariamente para el de automóvil. Al cruzar el porcentaje de viviendas con celular podemos observar cómo, para varias viviendas, el celular es un sustituto del teléfono fijo, pero conforme aumentan los porcentajes de ambos (probable en niveles más altos de ingreso) se empiezan a volver complementos y más proporción de las viviendas cuentan con ambos. A pesar de esta tendencia de volverse complementos, el celular sigue siendo preferido en todos los puntos del espectro.

15

16


Diferencias en acceso a internet según geografía

Dónde vivas influye en qué tan conectado estás. Las cinco entidades más conectadas son: la Ciudad de México, Nuevo León, Baja California Sur, Sonora y Baja California. En todas ellas, más de la mitad de su población tiene acceso a internet, siendo la Ciudad de México la que tiene el porcentaje más alto de conectados: 63.1%. Del otro lado del espectro, las entidades menos conectadas son: Chiapas, Oaxaca, Tabasco, Guerrero y Tlaxcala. Estas entidades tienen porcentajes por arriba del 76% de personas no conectadas a internet. En Chiapas el porcentaje alcanza hasta 86.9%.

Así como hay variaciones en el tipo de conexión dependiendo de otras características, el tipo de conexión al interior varía de estado a estado. Baja California, la Ciudad de México, Colima, Jalisco y Querétaro son las cinco entidades con un mayor porcentaje de conexión a internet por medio fijo. En Baja California, 39% de la población se conecta utilizando únicamente este medio, para la Ciudad de México ese porcentaje es de 35.2%. Comparado con el 9.9% de Chiapas o el 13.2% de Hidalgo, las dos entidades con porcentajes más bajos en este tipo de conexión.

17

En cambio, las entidades con porcentajes más altos de conexión móvil son: Yucatán, Baja California Sur, San Luis Potosí y Sonora. En Yucatán, 16.4% de la población se conecta utilizando solamente una conexión móvil. En contraste, en Veracruz el estado donde menos se utiliza este tipo de conexión, el porcentaje ni siquiera llega al 1%. Además de Veracruz, los últimos cuatro lugares en porcentaje de personas conectadas por medios móviles: Tabasco, Aguascalientes, Puebla y Chiapas.

Nuevo León, Sonora, la Ciudad de México, Baja California Sur y Quintana Roo son las entidades con el porcentaje más alto en uso de ambos tipos de conexión. Por ejemplo, en Nuevo León, 28.6% de la gente accede a la red utilizando tanto una conexión fija como móvil. De hecho, usar ambos medios es la manera más común de conectarse en el estado. Son seis los estados que, a pesar de no tener los porcentajes más altos a nivel nacional, sí tienen los porcentajes más grandes de manera relativa. Es decir, en estos seis estados, la manera más común de conectarse a internet es utilizando ambos tipos de conexión (tanto fija como móvil). Estos estados son: Nuevo León, Sonora, Quintana Roo, Sinaloa, Yucatán, Campeche y San Luis Potosí.

18

La ENDUTIH solo permite obtener datos de los usuarios a nivel nacional y estatal, no existen datos sobre usuarios a nivel municipal. Sin embargo, sí hay datos sobre el porcentaje de viviendas que disponen de internet en un municipio en la Encuesta Intercensal del INEGI para el año 2015. Esta encuesta es realizada en el período entre el censo del 2010 y el de 2020, con el fin de tener comparabilidad en varios temas y es representativa a nivel nacional, estatal, municipal y localidad.

Una de las variables sociodemográficas que mide la encuesta es el acceso a internet de las viviendas, por lo tanto, podemos identificar qué municipios están mayormente conectados y en qué zonas. Cuatro delegaciones de la Ciudad de México (Benito Juárez, Miguel Hidalgo, Coyoacán, Cuauhtémoc) y el municipio de San Padre Garza García en Nuevo León son los municipios con el porcentaje de viviendas con internet más altos del país. El porcentaje de viviendas con acceso a internet en estas demarcaciones es: 81.8% en la delegación Benito Juárez, 81% en San Pedro Garza García, 75.9% en la delación Miguel Hidalgo, 69.8% en Coyoacán y 65.6% en la delegación Cuauhtémoc. En cambio, hay 89 municipios que no tienen acceso a internet, 84 de los cuales están en Oaxaca, dos en Chiapas, dos en Puebla y uno en Guerrero.

19

Hay 28 municipios que de 2010 a 2015 experimentaron un crecimiento por arriba del 20% en el porcentaje de viviendas que tienen internet. Destacan los casos por ejemplo del municipio de San Andrés Cholula en Puebla, que pasó de un porcentaje de 27.7% a 59.3%. O el municipio de San Antonio de la Isla, en el Estado de México, que vio incrementado su porcentaje de viviendas con internet de 39.9% a 4.1%. En este listado de 28 municipios, se encuentran también: los municipios de Apodaca y Guadalupe en Nuevo León, los municipios de Cuautitlán y Tecámac en el Estado de México, de Nogales y Agua Prieta en Sonora, Tierra Blanca en Veracruz y las delegaciones de Cuauhtémoc y Álvaro Obregón en la Ciudad de México.


Hacia una evaluación de la Estrategia Digital

México Conectado busca, según los lineamientos del propio proyecto, “establecer las políticas, mecanismos y acciones necesarios para brindar acceso a la banda ancha en todos los sitios públicos del país”. Pretende, pues, garantizar el acceso de la población a internet de banda ancha, aprovechando los espacios públicos, (escuelas, bibliotecas, hospitales) para que funcionen como puntos de conexión. A pesar de que el principal indicador que detalla el plan para medir su éxito es el número de sitios públicos conectados a través de redes contratadas por la SCT, el fin último del proyecto es que más personas tengan acceso a internet.

24

Medir cuántas personas tienen acceso a internet, como consecuencia de esta estrategia, tiene sus dificultades. Si se quiere estudiar el fenómeno con la desagregación geográfica municipal, nivel en el que podríamos discernir mejor el efecto del programa, no se puede observar más que número de viviendas. Esto representa un problema, porque cualquier efecto en número de viviendas con conexión a internet es difícilmente atribuible a un programa que pretende aumentar el número de usuarios, instalando puntos de conexión en espacios públicos. Existen también datos de usuarios de internet, pero solamente los hay a nivel estatal si queremos verlos tanto antes como después del inicio del programa (requisito indispensable para poder hacer una comparación), por lo que gran parte de la varianza puntual se difumina.

El nivel de desagregación geográfica no es el único problema para sacar conclusiones que presenta la limitación de información existente. Los datos de usuarios de internet que genera la ENDUTIH corresponden a auto reportes, es decir, sabemos, con cierta incertidumbre, si alguien es usuario o no de internet (y el método que usa para conectarse), pero no sabemos la intensidad de uso, que sería la medición más apropiada para evaluar el éxito o fracaso del programa. Debemos, pues, mantener tanto los datos de cambio en usuarios de internet y viviendas con conectividad en mente, como el hecho de que no existe información alguna que sea completamente adecuada para medir el efecto de éste programa, al evaluar su diseño y aplicación.

La primera pregunta es: ¿se colocaron los centros de México Conectado donde más se necesitaban? Si dividimos a todos los municipios de México de acuerdo al porcentaje de sus viviendas que contaban con internet en 2010 y cruzamos esos datos con la cantidad de centros de la estrategia “México Conectado” que se instalaron en esos municipios, vemos que la respuesta a la pregunta parece ser “sí”. La mayoría de los municipios donde se acondicionaron muchos centros son municipios que, previo al programa, tenían muy pocas viviendas con conectividad a internet. Por el contrario, los municipios que estaban, previo al programa, muy bien conectados, fueron receptores de muy pocos centros de México Conectado.

20

Sin embargo, los datos de vivienda no cuentan la historia completa. Si analizamos los datos de usuarios de internet, el nivel objetivo del programa, la correlación entre falta de conectividad y número de centros se vuelve un poco menos clara. Las entidades con muy baja conectividad en 2011 no fueron receptoras de la mayor parte de los centros, sino que terminaron con una densidad media de centros. Las entidades que resultaron ser los principales focos de atracción para este programa fueron las que tenían un porcentaje mediano de usuarios de internet en 2011. Aunque, por supuesto, puede ocurrir que los estados con un promedio mediano de usuarios contengan a su vez municipios con un porcentaje muy pequeño de viviendas con internet.

21

Si agregamos todos los datos de usuarios de internet en los estados, vemos que la mayoría de los centros de México Conectado no fueron canalizados a las entidades peor conectadas, sino a las entidades con un porcentaje medio de usuarios de internet. Por supuesto que hay mucha heterogeneidad dentro de las entidades, por lo que los datos de usuarios, para los cuales solo podemos hacer generalizaciones por entidad, podrían estar ofuscando la focalización a municipios con baja conectividad dentro de las entidades que, en el agregado, cuentan con una conectividad mediana.

22

Si vemos los datos a nivel municipal, que son de porcentaje de viviendas con acceso a internet, está fuertemente relacionado el nivel de conectividad pre aplicación del proyecto con la cantidad de centros que se instalan durante él. Sin embargo, viviendas es un acercamiento oblicuo a los efectos del programa, aunque puede ayudar a entender si se seleccionaron municipios de manera acertada, no sirve más que indirectamente para medir los resultados, pues conectar viviendas no es el enfoque de este programa.

La segunda pregunta sería: ¿Sirvió el programa para conectar a más personas? Nos encontramos, pues, sin una medida adecuada para evaluar el proyecto: si analizamos los datos en la dimensión geográfica municipal, que es donde el proyecto tendría mayor impacto, tenemos que hacerlo viendo viviendas, que están más allá del enfoque del programa. Si vemos usuarios de internet, la población objetivo del proyecto, entonces tenemos que ver datos a nivel de entidades y perder variación y profundidad en el análisis.

23

Con estos problemas en mente, podemos llegar a algunas conclusiones. Ni en el caso de usuarios ni en el caso de viviendas se revirtió tendencia alguna; es decir, aunque el porcentaje de usuarios y de viviendas conectadas aumentaron en los últimos años, los municipios o estados con muy alta densidad y alta densidad de centros nunca superaron a los que tenían mediana, baja o muy baja densidad de centros. El programa parece no haber sido suficiente para cerrar ninguna brecha, las pendientes se mantienen constantes en el tiempo, antes y después de la entrada en vigor de México Conectado. No se ve un cambio en la tendencia de conectividad a partir de la adopción de este programa.

(Foto: cortesía de ThoroughlyReviewed.)


Descarga el informe completo.

140431901_ac1301cc19_b (2)

Inteligencia artificial: reflexiones sobre un futuro inminente

En una colonia de gorriones, cansada de las actividades manuales y repetitivas, un miembro propone traer a un búho. Los búhos son más fuertes y podrán realizar más rápido todas las actividades tediosas. Mientras tanto, los gorriones podrán dedicar su tiempo extra a cuidar de los ancianos y los menores. Aparentemente es una excelente idea; todos parecen concordar, excepto un miembro de la comunidad que argumenta que será difícil domesticar al búho y sentencia: “Esto seguramente será nuestra ruina, ¿no deberíamos de pensar más sobre el arte de la domesticación de búhos, antes de que traigamos a esta criatura a vivir entre nosotros?”

Esta fábula es la piedra de toque del libro Superinteligencia: caminos, peligros y estrategias (2016) del filósofo Nick Bostrom. No conocemos el final de la fábula, pero es un planteamiento que permite a Bostrom iniciar una discusión sobre lo que para él constituye una de las grandes amenazas de la humanidad: el incremento acelerado en la capacidad para resolver problemas analíticos de las computadoras es tal que llegaremos a un punto en el que éstas se volverán más inteligentes que nosotros. En este punto, si las máquinas decidieran actuar contra nosotros, dejaremos de gozar de nuestro carácter de especie dominante en el planeta. De acuerdo con Bostrom, necesitamos tener una discusión seria sobre los riesgos que los avances computacionales traerán consigo. De lo contrario –como advierte el gorrión en la fábula–, estaríamos promoviendo nuestra propia destrucción.

El libro de Bostrom está repleto de analogías que suponen implícitamente una circularidad de la historia. Por ejemplo, Bostrom nota que incluso aunque los humanos tenemos capacidades físicas inferiores a la mayoría de los mamíferos en la tierra, gozamos de una ventaja que ningún otro mamífero tiene: nuestra capacidad cognitiva. Esta ventaja competitiva nos permitió alzarnos como reyes del planeta y marginar a otras especies. Por lo tanto, de continuar el progreso tecnológico, los seres humanos podríamos acabar marginalizados si existiera un ente con un poder cognitivo significativamente mayor al nuestro.

Este momento es caracterizado por Bostrom como el de la singularidad: una explosión de inteligencia. La explosión ocurrirá, según Bostrom, gracias a los avances en el campo de la inteligencia artificial. Es importante notar que no es la primera vez que existen estos miedos sobre la competencia que las máquinas representan hacia los humanos. Desde el siglo XIX, el economista David Ricardo ya había examinado “la cuestión de la maquina” que se centraba en la influencia que tendrían estas en las diferentes clases sociales. La inteligencia artificial, como tal, ha despertado miedos específicamente desde la invención de las computadoras hace más de setenta años. El debate ha resurgido cada vez que se alcanza un hito tecnológico en el campo. El más reciente ejemplo es el programa DeepMind de Google que venció al campeón mundial de Go y desencadenó toda una serie de especulaciones sobre el poder de la inteligencia artificial. Incluso The Economist dedicó recientemente un número completo al tema.

Probablemente el mayor problema con la hipótesis de Bostrom es que se centra en una discusión abstracta en el campo lógico que extrapola el desarrollo futuro de la inteligencia artificial. Dentro del dominio filosófico, su tesis puede tener cierta validez, sin embargo, cuando se consideran los retos técnicos del campo, el futuro dominado por las máquinas presenta más desafíos de los que considera Bostrom.

Primero que nada, es necesario entender el contexto actual de los avances en el campo de la inteligencia artificial. Es importante hacer notar que el estudio y desarrollo de la inteligencia artificial ha sido un suceso dual, tanto teórico como práctico. Una computadora es una máquina que es capaz de ejecutar instrucciones escritas por un programador con el objetivo de resolver problemas concretos. A cualquier procedimiento que permita resolver cierta clase de problemas se le conoce como algoritmo. Hablar de un algoritmo es referirse a una serie de pasos para resolver un problema con un dominio de entradas (inputs) y de salida (resultados) perfectamente delimitado.

La teoría de la computación es la rama de las matemáticas que estudia de manera formal problemas teóricos que han surgido del estudio de procesos computacionales. Pioneros del área como Alan Turing y Alonzo Church cimentaron el desarrollo de los primeros ordenadores a través de la formalización en términos matemáticos de la idea de algoritmo. Particularmente notable fue el trabajo de Turing, quien formuló el modelo teórico de una computadora y que es hoy el más utilizado por matemáticos dedicados a probar teoremas sobre los límites y la naturaleza de resolver problemas de manera algorítmica: las llamadas “máquinas de Turing”.

Una pregunta de primer orden es si el cerebro humano es una máquina de Turing y, en caso de serlo, si es posible programar una computadora para imitar o simular las capacidades de aquel. Posiblemente la respuesta sea afirmativa. Para estudiar la inteligencia de una máquina, Turing propuso una prueba que evaluara las capacidades cognitivas de un agente computacional: una máquina capaz de sostener una conversación con un ser humano sin que éste llegue a la conclusión de que su interlocutor es una máquina.

El campo de la inteligencia artificial va más allá de la simulación y el estudio de las capacidades cognitivas humanas. La meta de los investigadores y practicantes de la inteligencia artificial no es solo el resolver la clásica prueba de Turing. Es también el de crear agentes y sistemas que puedan interactuar con otros agentes y la de realizar tareas en medios caóticos e imprevisibles. En este ámbito están incluidas la robótica y la machine learning.

A manera de ejemplo, los algoritmos que Google utiliza para indexar los resultados de una búsqueda, o los utilizados por Facebook para reconocer nuestros rostros en una foto, o recomendar contenidos y anuncios, son todos parte del ámbito del machine learning, que a pesar de tener un nombre de ciencia ficción es una rama de la estadística aplicada a dominios computacionales, especialmente útil en problemas con los que se requieren encontrar estructuras para realizar inferencias al tener disponibles grandes cantidades de datos.

En el lado práctico, los métodos favoritos utilizados por la industria han cambiado a través de los años. Durante el último lustro se ha visto una explosión en la utilización de un procedimiento que se conoce como Deep Learning, y que utiliza redes neuronales en una multitud de problemas que van desde el reconocimiento de imágenes, la robótica, hasta el algoritmo utilizado por Deep Mind para derrotar al campeón de Go.

El Deep learning es el ejemplo paradigmático de la gran distancia que existe entre el entendimiento del público sobre la inteligencia artificial y la realidad del campo. El nombre y su utilización de redes neuronales tienden a hacer pensar al público que se trata de algo más sofisticado de lo que en realidad es. Las redes neuronales de las que hablamos son un modelo matemático del funcionamiento de una neurona. El modelo es una versión tan simplificada de una neurona que en realidad es incorrecto relacionar el modelo con neuronas biológicas. En Deep Learning, múltiples unidades de estas neuronas son colocadas en una arquitectura de conexiones entre ellas, que presupone la existencia de neuronas input y neuronas output, y el modelo es entrenado (es decir, los parámetros del mismo son ajustados) mediante training data para que éste “aprenda” una función. El proceso es el mismo que el de realizar una regresión pero utilizando un modelo matemático más sofisticado. Estos algoritmos han sido especialmente exitosos en problemas sobre reconocimiento de imágenes y de voz.

Uno de los hechos más interesantes del Deep Learning es que la idea no es para nada nueva. Las redes neuronales fueron inventadas hace muchos años, pero no fue hasta hace poco que las capacidades computacionales de los computadores aunado a la masiva cantidad de datos que internet produce permitieron la resurrección de este método. En el campo teórico, sabemos muy poco sobre el funcionamiento y propiedades matemáticas de los algoritmos que son usados para Deep Learning. Es decir, desconocemos sus propiedades de convergencia, la naturaleza de sus saddle points o por qué parecen funcionar tan bien en la práctica para problemas de clasificación, como lo son los que involucran entender el contenido de una imagen.

Los avances recientes han sido impresionantes en tanto muchos problemas cuyas soluciones, no muchos años atrás, parecían lejanas. Aun así, los métodos actuales, aunque posiblemente habiliten nuevas realidades en el futuro próximo, como los autos de conducción autónoma en una carretera, son bastante limitados en tanto trabajan en medios restringidos. Un tablero de Go es un dominio perfectamente definido, determinado y sin mucha más aleatoriedad que los movimientos del oponente. Una carretera a pesar de ser bastante caótica, sigue siendo un dominio en donde, por lo general, el tipo de objetos que un agente espera encontrar está restringido a otros automóviles.

Es cierto que la inteligencia artificial ha tenido avances significativos en los últimos años, sin embargo, todavía se encuentra lejos de poder crear robots al estilo de las películas de ciencia ficción. Estamos lejos de poder crear un sistema que lea una novela y la pueda explicar. Los modelos que existen para hacer inferencia en el lenguaje son muy restringidos y si acaso son capaces de (por ejemplo) traducir unas pocas oraciones sin que podamos notar que estamos lidiando con una computadora y no con un ser humano. El lenguaje es tan inmensamente difícil de modelar porque es una estructura realmente compleja, no solo por su carácter cultural sino porque en sí misma tiene una serie de auto-referencias, reglas que no son reglas, y un millardo de excepciones y referencias que ligan un término de una oración con otro en una parte retirada del texto.

Estamos muy lejos de resolver ese problema, precondición casi obligada para tener un sistema suficientemente inteligente para que un día piense en eliminarnos. En cualquier caso, la creencia que una vez que logremos crear una inteligencia superior a la nuestra ésta deseará deshacerse de nosotros está basada en el supuesto de que toda otra inteligencia seguirá el camino del exterminio y la sinrazón que ha caracterizado la historia de la especie humana.

Por todo lo anterior, las conjeturas de Bostrom resultan un simple ejercicio de realidades mágicas que hoy en día se antojan difíciles de concretar, al menos en el mediano plazo. Hoy en día queda claro que los retos analíticos a los que se enfrenta el campo de la inteligencia artificial son amplios y, por lo tanto, estamos lejos de la singularidad que predice Bostrom.

(Foto: cortesía de Binary Koala.)