Abertura e Controle

open-closed

O texto a seguir foi escrito para a intervenção realizada no Seminário Informação e Internet, organizado pelo IBICT (Instituto Brasileiro de Informação em Ciência e Tecnologia) em Brasília, agosto de 2015. O título da mesa era “Abertura e Controle”, com Sarita Albagli e Sergio Amadeu.

O tema proposto (Abertura e Controle) me permitiu abordar algumas idéias e questões que estão na interface dos projetos que estou conduzindo neste momento: Ciência Aberta e Desenvolvimento Local; Tecnopolítica e Saberes Situados. Este ensaio é também um desdobramento das proposições lançados no post “Privacidade como Bem Comum” e das reflexões provocados, principalmente, pela leitura recente de dois textos: um artigo de Antoinette Rouvroy [1] e um ensaio do Amador Fernández-Savater [2].

Faço esta introdução, apenas indicar que parto de uma perspectiva em que “abertura e controle” são fenômenos interconectados e interdependentes quando falamos em comunicação digital em redes cibernéticas.

Primeiramente, gostaria de apontar quais os sentidos utilizados para esses dois termos neste texto:
*abertura: capacidade de acessar, interpretar, difundir informação (seja para fins de produção de conhecimento ou para garantir a funcionalidade técnica de softwares, hardwares etc.
*controle: capacidade de regular um conjunto de funções, eventos, variáveis com vistas a obtenção de algum resultado desejado (por exemplo, ter o controle da situação, controle do sistema etc). Mas também como uma capacidade de exercício de poder.

No caso da comunicação em meios digitais, abertura e controle podem se combinar e se efetivar através da implementação de protocolos. Segundo Alexander Galloway [3] podemos definir “protocolo” nas seguintes maneiras: padrão que governa a implementação de uma tecnologia específica; ou formas de governo para obtenção de controle num dado sistema. Mais especificamente, o protocolo para os cientistas da computação podem ser entendidos como: regras convencionadas que governam um conjunto de comportamentos possíveis dentro de um sistema heterogêneo; ou ainda técnica para alcançar regulação voluntária dentro de um ambiente contingente.

***

Hoje é senso comum falar que vivemos uma revolução dos dados (UN Data Revolution Group). Com o crescente uso das tecnologias de comunicação digital um novo universo de informações passa a ser produzido, registrado, analisado, sobre cada aspecto de nossas vidas (Quantified Self). Às vezes com nosso consentimento (Termos de Uso), muitas vezes com nossa cumplicidade e adesão voluntária (Facebook), mas na maioria das vezes, sem termos a menor noção do que de fato acorre com nossas informações (Windows).

Este novo manancial informacional é por vezes referido como o “petróleo do século XXI” (sobre o valor dos dados pessoais para o World Economic Forum), fazendo alusão à sua importância para as atividades econômicas e criação de riqueza monetária. Nesta dimensão, quanto mais informação disponível, quando maior o fluxo informacional, melhor para a atividade. Paradoxalmente, tal entendimento caminha lado a lado com a defesa seletiva da expansão do sistema de propriedade intelectual sobre informações consideradas estratégicas para a inovação tecnológica. Nesta perspectiva, o livre fluxo informacional (apoiado no discurso da abertura e transparência) combina-se à expansão de novos “enclousers” informacionais.

O importante aqui é estar no melhor lugar da cadeia produtiva informacional (camada física, aplicativos, harwares etc) de forma a poder modular a membrana que regula os fluxos entre abertura e fechamento estratégico sobre a informação “que conta”. Como podemos observar nos recentes acordos comerciais do Trans Pacífic Partenership [TPP-Wikileaks], ao mesmo tempo que promovem a expansão da propriedade intelectual sobre o conhecimento e à cultura, sob pressão das grandes corporações, as regulamentações que protegem os dados pessoais dos cidadãos Europeus são atacados como inimigos do livre fluxo informacional, impedindo assim o desenvolvimento econômico dessas nações [veja o comentário de E.Morozov].

Mas este novo universo de dados é também encarado como um recurso fundamental para o avanço da ciência em inúmeras áreas do conhecimento. Como afirmou um dos diretores de uma agência de saúde norte-americana, “as informações disponíveis sobre pacientes, tratamentos, condições de saúde, efeitos de drogas etc, organizadas como Big Data terão um efeito sobre a medicina do século XXI maior do que teve a penicilina no século XX”. Não apenas na área médica, este volume infinito de dados inaugura o Big Data em diversas disciplinas.

Mesmos as humanidades que sempre deram preferência à dimensão qualitativa e significativa das informações, e se aproximavam com suspeita tanto das tecnologias como das informações quantitativas, abraçaram as novas possibilidades oferecidas pelas TICs. As chamadas Humanidades Digitais não trabalham exclusivamente com big data, mas fazem uso intensivo das novas informações produzidas através da mediações digitais na vida social.

Do ponto de vista Estatal, seja para o acompanhamento e avaliação de suas ações, para a criação de novas formas de participação cidadã e controle social, mas principalmente para o monitoramento e controle sobre os cidadãos sob uma lógica securitária, as informações digitais produzidas e recolhidas constituem um novo recurso fundamental para o poder gestionário.

Participação, transparência, acesso à informação e controle social são palavras que passaram a compor um vocabulário comum de militantes, cientistas e gestores governamentais. Hoje, até o congresso brasileiro organiza seus Hack Days.

Indiquei rapidamente esses três eixos (econômico, ciência/conhecimento e Estado) apenas para destacar a forma como esta nova produção e disponibilização de dados situa-se sobre uma arena conflituosa de profunda reconfiguração social, onde as fronteiras entre público-privado, trabalho e não-trabalho, abertura e controle ganham novos contornos, e onde o surgimento de novas formas de saberes e conhecimentos vem acompanhadas por novas formas de exercício do poder (cf. Foucault).

Os exemplos são infinitos:
*nota fiscal eletrônica: coleta de dados sobre o consumo do cidadão contribui para combater a evasão fiscal, e ao mesmo tempo produz um conhecimento de alto valor de mercado sobre perfis de consumo. Quais os usos que podem ser feitos dessas informações? Quem são os intermediários e terceiros que tem acesso à ela?
*dados sobre pacientes no sistema publico ou privado de saúde: prontuário eletrônica é importante para ampliar nossos conhecimentos sobre tanto sobre a saúde humana como sobre o sistema de saúde. Mas como essas informações podem ser usadas?
*dados que produzimos em nosso uso cotidiano da Internet, são importantes para conhecermos mais sobre determinados aspectos da vida social, e ao mesmo tempo são o insumo básico da vigilância industrial (estatal e corporativa).

Portanto, indicamos que essa crescente produção e disponibilização de dados (dimensão da abertura) vem acompanhada de uma forma de controle. Há portanto, a emergência de novas formas de conhecer que se combinam às novas formas de exercício do poder. E elas não são genéricas e abstratas, mas sim, situadas (ou contextualizadas) e empíricas.

É sob esta perspectiva que eu gostaria de avançar. Não faz sentido falarmos da abertura e transparência como valores transcendentais que devam ser aplicados genericamente às informações produzidas (uma vez que existe esta possibilidade). As condições e possibilidades de abertura devem sempre ser analisadas nos contextos específicos de sua produção e circulação, bem como nos efeitos sociais e culturais (sistêmicos) que ela pode provocar.

Pensemos, por exemplo, como os efeitos relativos à disponibilização livre e consentida de nossas informações genéticas está além de questões sobre a decisão/escolha individual e, portanto, também terão efeitos que escapam à proteção dos dados pessoais (como veremos na parte final do texto).

Por um lado, a oferta dessas informações (p.ex. dados biomédicos) pode contribuir para o avanço dos estudos sobre doenças etc. Podemos considerar aqui que esta “abertura” é voluntária e cabe apenas ao indivíduo decidir o que fazer com seus dados pessoais. Todavia, precisamos considerar os efeitos dessa informação num cenário mais complexo em que o campo de forças econômico e político (corporações, Estados etc) é distribuído de forma assimétrica. De partida, temos atores com condições distintas de apropriação e uso desta informação. Suponhamos que essas informações sejam utilizadas para analisar o perfil genético de um cidadão no momento de sua contratação profissional ou para a contratação de um convênio médico. Neste caso, estamos tratando dos problemas relativos à aplicação dos dados deste indivíduo sobre ele mesmo em ações futuras. Todavia, o simples fato de que alguns indivíduos disponibilizem suas informações genéticas livremente pode criar uma nova situação em que todos aqueles que não disponibilizam suas informações genéticas sejam tratados de forma negativa (pagar um seguro médico mais caro, etc).

Por isso, além da proteção dos dados pessoais, temos pensar em formas de regulação sobre o que é possível fazer, em termos de coleta, organização, sistematização e análise, da massa de dados atualmente disponível, mesmo quando anonimizadas, portanto, fora da esfera dos chamados “dados pessoais”. Foi neste sentido que escrevi um pequeno ensaio sugerindo tomar o direito à Privacidade como Bem Comum.

Com isso, quero apontar para a emergência de um horizonte sociocultural mais amplo que estamos produzindo com nossas pequenas ações individuais. Não seria essa a política inscrita no protocolo da transparência total pretendida pelo Facebook: criação de uma cultura da transparência em que a disponibilização voluntária de nossos dados se naturaliza como um imperativo social e moral? É sobre esta configuração cultural mais amplo que gostaria de seguir a conversa.

***

Como promover o acesso à informação, ao conhecimento e à cultura e ao mesmo tempo, combater os efeitos potencialmente perversos dessa abertura? Quando falamos em revolução dos dados (como bem interrogou o artigo de Jonathan Gray) precisamos interrogar para quem? Nesse sentido, parece-me importante colocar a questão da abertura num contexto muito assimétrico de distribuição do poder comunicacional, econômico e político.

Recemente, numa lista de discussão dedicada à tecnopolítica e ao ativismo Antivigilância, tive contato com alguns documentos de um grupo de trabalho em tecnologia da Associação Brasileira de Saúde Coletiva. Achei excelente o documento. Com uma percepção aguda, já no início dos anos 90, alguns médicos e enfermeiros estavam atentos à necessidade de se pensar em formas críticas de gestão dos grandes bancos de dados que estavam começando a se constituir sobre os pacientes no sistema público de saúde. O documento levanta várias questões importantes: que tecnologias podem promover a confidencialidade, proteger a identidade dos pacientes, evitar usos indevidos por empresas sobre os bancos de dados etc.

Da mesma forma como esses atores estavam preocupados com a identidade e a privacidade dos pacientes, hoje enfrentamos questões análogas no debate sobre a nova lei de Proteção de Dados Pessoais.

É nesse sentido também que a comunidade tecnoativista tem organizado eventos [CryptoRave] destinados a difundir o uso de tecnologias que promovam a comunicação segura, a privacidade e o anonimato, como formas de luta contra as ações massivas de vigilância estatal e corporativa. A luta pelo direito ao anonimato na rede é de suma importância num cenário de crescente mediação digital. Na atual conjuntura a defesa do anonimato é uma possível estratégia para a defesa da liberdade de expressão, para resistir à “censura preventiva” ou ainda para combater o “conformismo antecipativo” diante dos mecanismos de profiling.

Não à toa, na era Pós-Snowden começam a surgir serviços conhecidos como zero-knowledge. Outro exemplo é o esforço de ciberativistas para criar ambientes de interação que tentam recriar a situação de um encontro de duas pessoas numa floresta, uma conversa em presença e sem qualquer registro, apenas a memória individual de cada um deles.

O anonimato na rede também cumpre a importante função de criar espaços de interação que possam efetivamente funcionar como arenas públicas. É uma situação análoga ao efeito provocado pelas cidades modernas na sociabilidade, onde o espaço publico se caracterizava pela possibilidade do encontro com pessoas que não conhecemos e, por isso, surgiram códigos de conduta para o bom convívio com aquele ser genérico que desconheço. Tais princípios e códigos estarão mais tarde na base dos direitos de cidadania.

Na medida em que os ambientes digitais produzem uma infinidade de dados sobre os usuários, a garantia do anonimato torna-se um recurso importante (mas não único como veremos adiante) para que possamos evitar a emergência de uma sociedade policial, onde sabemos tudo sobre todos, e todas as interações acontecem em cenários onde o imprevisto e o indeterminado estão eliminados.

***

Contudo, em todos esses casos que listamos, o conflito e as formas de apropriação e expropriação, dão-se sobre a fronteira dos dados públicos e privados, e também sobre a capacidade de atribuir autenticidade e identidade aos dados.

Com a crescente concentração das informações digitais nas mãos de poucos atores corporativos e estatais, as práticas de abertura e livre disponibilização de dados combinam-se à emergencia do Big Data num contexto de distribuição assimétrica no poder comunicacional (propriedade dos meios, infraestrutura, aplicativos etc). Neste cenário, gostaria de apontar que a forma de exercício de poder aquire outra dinâmica, deslocando portanto, o conflito político para outras arenas.

Para explorar essa nova configuração entre saberes e poderes no mundo do Big Data, Antoinette Rouvroy, pesquisadora do Research Center Information, Law & Society (Bélgica), toma as idéias de Foucault e Deleuze para desenvolver o conceito de “Governamentalidade Algorítmica” [1], como um desdobramento da governamentalidade neoliberal:

“J’ai voulu décrire ce glissement du gouvernement néolibéral au gouvernement algorithmique: un mode de gouvernement nourri essentiellement de données brutes (qui opèrent comme des signaux infra-personnels et a-signifiants mais quantifiables); qui affecte les individus sur le mode de l’alerte provoquant du réflex plutôt que sur le mode de l’autorisation, de l’interdiction, de la persuasion, en s’appuyant sur leurs capacités d’entendement et de volonté ; qui vise essentiellement à anticiper l’avenir, à borner le possible, plutôt qu’à règlementer les conduites. Les dispositifs de la gouvernementalité algorithmique intègrent le data-mining: l’exploitation de gisements de données massives et brutes, qui n’ont individuellement aucun sens, pour en faire surgir des profils de comportements. Le data-mining permet de gérer les gens de façon personnalisante, industrielle, systématique, préemptive, en ne s’intéressant à eux qu’en tant qu’ils relèvent d’une multitude de profils (de consommateurs, de délinquants potentiels, etc.).

Nessa perspectiva, o que está em jogo é muita mais a capacidade de produzir e gerenciar uma infinidade de perfis, de criar cenários e produzir futuros. O perfil é supra-individual (é uma categoria estatística) e é criado a partir de informações brutas, infra-individuais. Não é mais o indivíduo que conta, mas o ser dividual. Deleuze já tinha apontado isso naquele pequeno texto Post-Scriptum das Sociedades de Controle. Mas a governamentalidade algoritmica ocupa-se de um mundo digital muito distinto daquele observado por Deleuze.

Não se trata apenas de gerir permissões de acesso, de modular a existência dividual a partir de controles de variação contínua. É tudo isso também, porém, o campo de intervenção com o Big Data cria uma “política” da simulação” que é a própria morte da política, uma vez que as ações passam a ser governadas graças ao feedback dos parâmetros que indicam os cenários futuros produzidas com base nas predisposições estatísticas de cada perfil, de cada situação. Não se age, não se cria, modela-se.

Galloway aborda este problema por uma perspectiva complementar que ele chamará de poder protocolor. Não é preciso se preocupar com o sentido da ação, é possível conduzir a ação de outra maneira. Na medida em que toda ação tecnicamente mediada precisa passar pelo protocolo, o importante é que este protocolo produza os efeitos desejados. É uma ação governada no presente graças ao controle sobre os efeitos desejados.

É por isso que estamos além do Big Brother. Claro, Snowden, Assange estão aí para nos lembrar dos inúmeros aparatos de vigilância. Porém, neste cenário trata-se menos de impedir que nos expressemos livremente. Sim, isso também acontece no momento de exercicio do poder sobre o indivíduo em situações específicas. Todavia, na governamentalidade algoritmica somos convidados a sempre nos expressarmos livremente: “escreva aqui o que você está pensando” (Facebook), “o que está acontecendo?” (Twitter) etc.

Para além do Big Brother – tomo de empréstimo a feliz expressão de Evegeny Morozov – estamos diante da Big Mother, ela sabe o que eu desejo, ela sabe o que eu preciso, ela vai me oferecer tudo que necessito.

Discutimos neste evento alguns aspectos do direito ao esquecimento. Antoine Rouvroy nos lembra também da importância de discutirmos o direito a um futuro não-preocupado: será que as informações que eu estou produzindo agora, mesmo que anonimizadas (portanto, nao se trata de dados pessoais), não estão a compor um perfil estatistico que será utilizado no futuro para guiar minhas escolhas ou para me incluir em determinadas categorias sociais que ainda sou incapaz de imaginar?

Por tudo isso, é importante pensarmos numa política para a proteção dos dados pessoais e também nas garantias para o anonimato na rede. Porém, isso só dá conta de uma parte de um problema. É absolutamente possível manter a governamentalidade algorítmica funcionando dentro do respeito àquilo que entendemos como “dados pessoais”. Para enfrentarmos essa nova forma de poder, teremos que pensar em novas formas de regulação sobre a informação que é produzida, para além da dicotomia público-privado. Afinal, trata-se de discutir o que queremos fazer coletivamente com as informações que estão aí? Quais as possibilidades e o que queremos evitar? Talvez, tenhamos mesmo que pensar que a proteção dos dados pessoais não se refere mais ao indivíduo, mas sim à coletividade. Ou seja, com a crescente mediação das tecnologias digitais há todo uma nova partilha do mundo que se faz necessária, afinal, a intermediação digital inaugura um novo território comum sob disputa. Uma alternativa, seria tomarmos o ecossistema comunicacional de maneira análoga aos bens comuns, e pensar seu usufruo coletivo a partir de uma concepção renovada dos direitos no mundo digital, para além da dicotomia indivíduo-sociedade, público-privado.

——————————————————-

[1] Antoinette Rouvroy. “« Le droit à la protection de la vie privée comme droit à un avenir non pré-occupé, et comme condition de survenance du commun. » (Draft / Version provisoire)” Entretiens à propos du droit à la protection de la vie privée (à paraître). Ed. Claire Lobet-Maris, Nathalie Grandjean, Perrine Vanmeerbeek. Paris: FYP éditions, 2014. Disponível em: http://works.bepress.com/cgi/viewcontent.cgi?article=1065&context=antoinette_rouvroy

[2] Amador Fernández-Savater – O pesadelo de um mundo em rede: http://www.eldiario.es/interferencias/pesadilla-mundo-red_6_412668752.html

[3] Alexander Galloway. Protocol, how control exists after decentralization, MIT Press, Cambridge, 2004.