Búsqueda cabezona

jueves, 19 de abril de 2018

El Fin de la Privacidad II: ¿Sueña el Capitalismo con Represores Cibernéticos?

Ya habíamos empezado esta temática a la que titulamos "El Fin de la Privacidad" (el primer lanzamiento se tituló "Estado Fascista 2.0"), y dado la cantidad de comentarios dijimos que continuaríamos la saga, aunque por culpa de nuestro poco tiempo la misma quedó trunca y nunca más la continuamos. Pero debido a una excelente nota que en realidad se llama "¿Sueña Urtubey con represores cibernéticos?" y me pareció la mejor manera de retomar el tema, porque hay material de sobra para continuar escribiendo, y mucho. Dicha nota, que paso a trascribir, comienza así: "Si ya se cuenta con la tecnología para proyectar potenciales embarazos (o cualquier otra "anomalía social"), ¿es ético que tratemos de prevenir esas situaciones pero no de cambiar las condiciones socioeconómicas que las generan?". Un texto que bien vale la pena, primero porque si bien muchas veces hacemos alusión al presente social como un sistema totalitario e inhumano que en su conjunto de situaciones podíamos remitirnos a lo predicho por George Orwell y Aldous Huxley, principalmente en "1984" y "Un Mundo Feliz", pero nos faltaba una pata de la distopía, y me refiero a que parte de este presente también fue pronosticado por Philip K. Dick, autor entre tanto otros libros, de "Do Androids Dream of Electric Sheep?" (1968) y "Second Variety" (1953), nos puede ayudar a entender este complejo sistema paranóico donde vivimos. Y cuando no reconocemos nuestra "realidad", cuando toda acción personal y social nos parezca incoherente y sin dirección clara, así como nuestro futuro, viene bien revisar lo escrito por este visionario de lo enroscado.



No solamente estamos aprendiendo a amar al Gran Hermano, que vive, si es que vive, en un grupo de "granjas" de servidores, adormecidos por el Soma que nos ofrece los celulares y las series de Netflix. Pero esas distopias tienden hacia fantasías de control absoluto, en las que el sistema lo ve todo, lo conoce todo y controla todo, hoy los teléfonos y dispositivos domésticos producen rastros de datos, como partículas en una cámara de nubes, indicando nuestros deseos y comportamientos a compañías como Facebook, Amazon y Google. Sin embargo, la información así producida es imperfecta y clasificada por algoritmos de aprendizaje automático que a su vez cometen errores. Vivimos en un mundo que se está desarrollando la tecnología de una manera que hace cada vez más difícil distinguir a los seres humanos de las cosas artificiales, y también donde los seres humanos se pueden convertir en lo que no son. Las grandes arquitecturas comerciales están siendo colonizadas por parásitos casi autónomos. Los estafadores han construido algoritmos para escribir libros falsos desde cero y vender en Amazon, compilando y modificando textos de otros libros y fuentes en línea como Wikipedia, para engañar a los compradores o para aprovechar las lagunas en la estructura de compensación de Amazon. Gran parte del sistema financiero mundial está compuesto por sistemas automatizados de bots diseñados para inspeccionar continuamente los mercados en busca de oportunidades fugaces de arbitraje. Los programas menos sofisticados plagan los sistemas de comercio en línea como eBay y Amazon, ocasionalmente con consecuencias extraordinarias, como cuando dos bots en guerra ofertan el precio de un libro de biología hasta $23,698,655.93 (más $3.99 de envío).
En otras palabras, vivimos en el futuro de George Orwell o el de Aldous Huxley pero también en el Philip K. Dick. Sus mundos imaginarios se juntan con esos retazos de Orwell y Huxley, extraños a él, y conforman la realidad que vivimos todos los días.

Dick tenía un gran interés por los procesos a través de los cuales la realidad se construye socialmente: "las realidades falsas son fabricadas por los medios de comunicación, por los gobiernos, por las grandes corporaciones, por grupos religiosos, por grupos políticos, y el hardware electrónico existe para entregar estos pseudo-mundos directamente a las cabezas del lector". En los libros de Dick, lo real y lo irreal se contagian entre sí, de modo que se hace cada vez más imposible diferenciarlas. Vivimos en el mundo de Dick, un mundo en el que nos comunicamos e interactuamos a distancia está cada vez más lleno de algoritmos que parecen humanos, pero no son personas falsas generadas por realidades falsas. Cuando Ashley Madison, un sitio de citas para las personas que quieren engañar a sus esposos, fue hackeado, descubrieron que decenas de miles de mujeres en el sitio eran "fembots" falsas mujeres programadas para enviar millones de mensajes informales a los clientes masculinos, con el fin de engañarlos para que crean que estaban rodeados por un gran número de parejas sexuales potenciales.
Es probable que estos problemas sólo empeoren a medida que el mundo físico y el mundo de la información se interpenetran cada vez más. Ya tenemos los "trolls" encabezando la política comunicaciones de gobiernos (Corporación Cambiemos a la cabeza), no solamente con opinadores seriales a sueldo, sino además con muchas cuentas de Twitter que son bots, a menudo con los nombres y fotografías robadas, buscando lanzar el "producto" amarillo con que tratan de domesticar la opinión pública. Los twitterbots varían en sofisticación: desde cuentas automatizadas que no hacen más que retwitear lo que otros bots han dicho, hasta sofisticados algoritmos que despliegan ataques a personas específicas, invadir organizaciones o degradar tipos particulares de conversación.
Un mundo en el que lo real se confunde con lo falso, para que nadie sepa dónde termina uno y dónde comienza el otro, está maduro para la paranoia. Un estudio académico reciente encontró que entre el 9 y el 15 por ciento de todas las cuentas de Twitter son probablemente falsas. La gente simplemente ya no sabe qué o a quién creer. Los rumores difundidos por Twitterbots se funden en otros rumores sobre la ubicuidad de Twitterbots, y si esta o aquella tendencia está siendo impulsada por algoritmos malignos en lugar de por seres humanos reales.
Trump usó el Big Data de Cambridge Analytics en 2016. Y también lo usó Hillary Clinton (junto con otras agencias). Obama lo había usado ya en 2008. Lo mismo que el que fue su rival entonces, John Mc Cain. El Big Data, o "data crunching" son buenas herramientas de manipulación, y las puede usar cualquiera que las pague, aunque no garantizan el éxito. Pero tampoco son las únicas herramientas de manipulación.
Cabeza de Moog - El Fin de la Privacidad I. Estado Fascista 2.0

Semejante falsedad generalizada es especialmente explosiva cuando se combina con nuestras políticas fragmentadas. Los términos favoritos de los neoliberales para referirse a la maquinaria propagandística de la derecha: la postverdad o las "fake news", y entre la realidad inventada por Durán Barba en base a las encuestas y luego su amplificación por los medios de comunicación, totalmente afines a esta táctica cruel, sumado a toda la guerrilla de las redes sociales y sus trolls, es que los gobiernos de derecha están imponiendo "su" realidad y descomponiendo rápidamente el tejido social. Y todo esto huele muy a podrido y es difícil saber dónde va a terminar.
Es que en las incongruencias de las novelas de Dick siempre se encuentra la salvación, incluso en su peor momento, conservando incluso el sentido del humor. Obviamente, es menos fácil ver la broma cuando uno está viviendo a través de ella.

Las bromas y memes que coparon las redes sociales tras la llamativa expresión del gobernador Urtubey –la más frecuentada: su rostro reemplazando al de Tom Cruise en “Minority Report”– eran obvios para quien había visto esa peli y ahora, azorado, leyera sus declaraciones. Pero mientras arreciaban las burlas, el diario Clarín se ocupó de defender a quien aparece como uno de sus candidatos para 2019 (el “sale o sale” del establishment argentino: que cada opción con chances de competir contra el Gobierno, sea lo más parecida posible al propio Gobierno. Remember 2015). Así, apenas un día después de las declaraciones de cientificción de Urtubey, el “gran diario argentino” le contó al país que el inverosímil plan se encuentra en marcha desde el año pasado, e incluso que “ya detectamos a 492 niños con 88% de probabilidad de abandono escolar. Y también 397 niñas con un 88% de probabilidad de que queden embarazadas en un futuro cercano”, según detalló el ministro Carlos Abeleira, a cargo de “Primera Infancia”.

“Con la tecnología vos podés prever cinco o seis años antes, con nombre, apellido y domicilio, cuál es la niña, futura adolescente, que está en un 86 por ciento predestinada a tener un embarazo adolescente” (Juan Manuel Urtubey, gobernador de Salta, 10 de abril de 2018).




NO ERA CIENCIA FICCIÓN

Claro que no es ciencia ficción. Cualquier persona que tenga un mínimo interés en las cuestiones científico-tecnológicas lo sabe. Sobran ejemplos. El más reciente: el escándalo de Facebook y los datos proporcionados a una empresa (Cambridge Analytica, CA) que, mediante modelos computacionales y psicología cognitiva, pudo construir un perfil de la personalidad de cada uno de los 250 millones de votantes en las elecciones de EE.UU. para uso de la campaña de Donald Trump. Y antes, en el “Brexit”, el referéndum en Gran Bretaña sobre su salida de la Unión Europea. Y todo eso sin espiar a nadie ni hacer nada ilegal (por ahora): alcanza con ordenar la información que cada persona entrega a las redes sociales –de manera voluntaria aunque con poca (o ninguna) conciencia de estar haciéndolo: cada “me gusta”, cada noticia compartida, cada acción mía en las redes construye esa información que, procesada por especialistas puede permitir predecir mi conducta.

¿Se trata de un delirio paranoico propio de los autores de ciencia ficción? Y sí: “Black Mirror” ya está aquí. Aunque pueda parecerle extraño a personas poco familiarizadas con los avances de la ciencia (según Marcelino Cereijido, el grueso de la población argentina sufre “analfabetismo científico”), estas tecnologías están entre nosotros desde hace un tiempo. De hecho, sus manifestaciones ya son cotidianas: lo vemos cada vez que el celular nos propone calificar un lugar que acabamos de visitar, o cuando recibimos ofertas comerciales vinculadas a una búsqueda que recién realizamos en Google.

El modelo que utilizó la empresa CA fue creado en la Universidad de Cambridge. Según explican sus propios creadores, con menos de cien “me gusta” de un usuario de Facebook pueden revelar –con bajo margen de error– su orientación sexual y su afinidad política. Con algunos más, pueden ir mucho más lejos: les encanta presumir diciendo que con sólo 10 “me gusta” el modelo “conoce” mejor a una persona que sus compañeros de trabajo; con 70 “me gusta”, mejor que sus amistades, y con 300 mejor que su pareja. Para esta disciplina pragmática –tan lejos de nuestras psicologías atormentadas por causas y por explicaciones “profundas”– “conocer mejor a una persona” significa, simplemente, predecir sus acciones, anticipar sus respuestas ante determinados estímulos.
Y dado que cada vez que hacemos algo en las redes, vamos dejando “huellas digitales”, si alguien se ocupa de grabarlas, recolectarlas y analizarlas, tendrá en sus manos una información que potencialmente vale oro para distintos fines. Por ejemplo, podrían pronosticar a quién votarían. Así, cualquier candidato con suficiente dinero podría disponer de una base de datos de millones de personas entre las cuales podría diferenciar a quienes jamás lo votarían, y apuntar a todos los otros, detectando perfiles valiosísimos: los potenciales votantes, para empezar, pero también los que decididamente activarían a su favor, o quiénes estarían dispuestos a colaborar aportando fondos, e incluso aquellos que podrían decidirse a favor de su candidatura en función de determinados mensajes o propuestas.

PREGUNTITAS

La película de Steven Spielberg Minority Report (“El informe de la minoría”), que protagonizó Tom Cruise pocos años atrás, popularizó una historia escrita en 1956 por Philip K. Dick, uno de los autores más celebrados de la ciencia ficción mundial. Allí, la policía de un futuro cercano puede evitar los crímenes que se cometerán, usando unos mutantes que tienen “visiones” de esos sucesos y arrestando a los potenciales autores. La trama de la historia es que no siempre los mutantes coinciden en sus visiones: uno de ellos “ve” un desenlace diferente, donde el futuro criminal desiste de su intención. Por eso se llama “el informe de la minoría”. Esa posibilidad hace más inquietante la situación: ¿qué pasa en ese caso?

El cuento de Dick es mucho más breve que el film. Y plantea toda una serie de paradojas que pueden parecer ociosas para algunas personas, pero son atrapantes para quienes aman la filosofía: si se impide el crimen ¿se puede considerar a alguien culpable de algo que no sucedió? Si una persona “sabe” que asesinará, ¿puede tener una segunda opción? ¿O no hay manera de escapar a los hilos del “destino”? Pero ¿es que hay “destino”? Y si lo hay ¿es un solo destino posible? ¿No se puede modificar? ¿Y quién tiene derecho a hacerlo? ¿La policía? ¿El Estado? ¿Una empresa privada que conoce y gestiona esos datos?

El año pasado se anunció que en China y por encargo de la policía, empresas especializadas en tecnologia de la información desarrollaron herramientas de inteligencia artificial para identificar y arrestar a posibles criminales. La principal empresa involucrada es Cloud Walk, especializada en reconocimiento facial. El software desarrollado permite acceder al sistema de videovigilancia y cruzar datos con todos los demás rasgos de la persona que el Estado ya posee: el comportamiento en línea de las personas, sus transacciones financieras, trabajos y hobbies. Eso es lo que viene, en el país capitalista en vías de ser el más poderoso del mundo, paradójicamente gobernado por un Partido Comunista.
Entre las aplicaciones que China utiliza desde hace tiempo para aprovechar la tecnología, aprobó una legislación que obliga a las compañías telefónicas a crear un tono especial de llamada para morosos: aquel ciudadano con deudas bancarias, de impuestos o de servicios llevará un ringtone especial, y además quien lo llame recibirá un mensaje de alerta sobre la falta de compromiso de pago de esa persona.

La ONG Human Rights Watch cuestionó estos avances y alertó sobre el objetivo de las autoridades chinas de crear una base de datos a nivel nacional “sin protección, transparencia o medidas que garanticen la privacidad”. Con los antecedentes del gobierno chino en materia de derechos humanos, la forma en que se usan y se usarán las tecnologías de este tipo generan muchas suspicacias.

PRECRIMEN Y CAPITALISMO

Hay otro texto de Philip K. Dick, menos conocido por el gran público pero mucho más relevante en su carrera como escritor. Se trata de la novela corta ¿Sueñan los androides con ovejas eléctricas?, de 1968, que dio origen a su vez, a otra legendaria película de ciencia ficción: Blade Runner, de Ridley Scott, protagonizada por Harrison Ford. En ese mundo (claramente distópico) la inteligencia artificial tiene rostro humano: se crearon copias de humanos destinados al trabajo esclavo, a los que se llama “replicantes”. Pero se rebelan: resulta que lograron, no se sabe cómo, tener conciencia. Por eso la policía crea un cuerpo especial (los “Blade Runners”) dedicado a identificarlos y “pasarlos a retiro”.

Mientras algunas personas se burlaban de Urtubey y lo comparaban con las aeronaves que el ex presidente Menem anunciara más de veinte años atrás, otras personas, mejor informadas, advertían sobre el riesgo que implica profundizar la línea de acción que propone (y que ahora sabemos que puso en marcha desde hace medio año) el gobernador de Salta, en convenio, nada menos que con Microsoft.
Hace falta mucho más para especular con que, del mismo modo, con buenos datos, ya se podría prever quién –potencialmente– matará o violará? De nuevo: no es ciencia ficción. Con bases de datos completas y complejas, y con software creado para ese fin, ese “PreCrime” ya es mucho más que una promesa distópica. Como en China.
Pablo Capanna, en su memorable ensayo Ciencia ficción, utopía y mercado (Cántaro, 2007), escribió que “la ciencia ficción configuró el imaginario del siglo XX. Sin su presencia no se explicaría por qué se ha gastado más en explorar el espacio que en combatir la miseria, o que nos hayamos acostumbrado a creer de modo fatalista que todo lo que se inventa merece ser llevado a la práctica. Para bien o para mal, el mundo en que vivimos es la materialización de sus fantasías.”

OBJECIONES

¿Están los políticos como Urtubey pensando no solo en prevenir embarazos adolescentes, sino también en represores cibernéticos? Nadie lo sabe. Pero en el cambio de paradigma que expresa a nivel nacional el macrismo, y a niveles provinciales gobernadores como Urtubey, sería apenas un pasito más en la misma dirección.
Por eso algunas personas mejor informadas, integrantes del Observatorio de Violencia Contra las Mujeres y la Multisectorial de Mujeres de Salta, redactaron un documento en el que afirman, entre otras cosas: “El embarazo en la adolescencia guarda en sí una gran complejidad, el abordaje de esta realidad no puede reducirse al cruce de variables y la realización de proyecciones de ‘potenciales’ embarazos como resultado de condiciones socioeconómicas en las que están insertas las adolescentes. No hace falta buscar en el futuro las ‘predicciones’ de un software sino en el presente y nuestro pasado reciente y en cuanto se expresan como un continuo de ausencia de políticas públicas”.

Otro grupo de personas bien informadas, el Laboratorio de Inteligencia Artificial Aplicada (LIAA) de la UBA, planteó objeciones similares, pero en términos mucho más  específicos: “Las técnicas de inteligencia artificial son poderosas y demandan responsabilidad por parte de quienes las emplean. En campos interdisciplinarios como éste, no debe perderse de vista que son sólo una herramienta más, que debe complementarse con otras, y de ningún modo reemplazan el conocimiento o la inteligencia de un experto, especialmente en campos que tienen injerencia directa en temas de salud pública y de sectores vulnerables”.

ÉTICA Y “REPLICANTES”

La tecnología para cruzar variables y proyectar potenciales embarazos (o cualquier otra “anomalía” social) ya está acá. Por eso la discusion es ética, es filosófica. Y obliga a realizar preguntas: ¿Es razonable que tratemos de prevenir los crímenes o las situaciones anómalas, pero no de cambiar las condiciones socioeconómicas que los generan? ¿No es ésa una manera consciente, sofisticada, de garantizar la continuidad de la injusticia?

No es una exageracion de este que escribe. Lo enuncia, orondo, el ministro salteño: “Buscamos cambiar la forma de trabajo. Siempre se trabaja en cuestiones estructurales y económicas, pero la realidad nos muestra que tenés chicas de 11 años embarazadas. El cambio debe pasar por dejar las cuestiones estructurales y trabajar en la persona. Es un cambio de paradigma”.
Dejar las cuestiones estructurales, trabajar en cada persona.

¿Ésa es la derecha que viene: un capitalismo racional, que utilizará todas las herramientas para prever cada caso, sin cambiar ninguna de las relaciones estructurales que los generan? ¿Asistencialismo potenciado con Big Data e Inteligencia Artificial, para tratar los casos extremos de desigualdad social? ¿Y un nuevo “Gran Hermano” que ya está operando en China para tratar el conflicto con la ley penal? ¿La ciencia y la tecnología al servicio de la felicidad capitalista, en versión “amable” en Occidente, y un poco menos amable en Oriente?

Pablo Capanna dice que “la creencia de que la tecnología es capaz de resolverlo todo es el único dogma que quedó al margen de los debates ideológicos, y hoy sigue estando en el eje del discurso único”. Y agrega que la ciencia ficción pudo sobrevivir al ocaso de la modernidad, pero al precio de renunciar a su conciencia crítica. Nunca pareció más claro que en estos días.
Américo Schvartzman


No hay comentarios:

Publicar un comentario

Lo más visitado en el mes

Aclaración...

Este espacio se reserva el derecho de publicar sobre cualquier tema que parezca interesante a su staff, no solamente referidos a la cuestión musical sino también a lo político y social.
Si no estás de acuerdo con lo expresado podrás dejar tu comentario siempre que no sea ofensivo, discriminador o violento...

Y no te confundas, no nos interesa la piratería, lo nuestro es simplemente desobediencia civil y resistencia cultural a favor del libre acceso al conocimiento (nuestra música es, entre otras tantas cosas, conocimiento).