Arquivos da categoria: governança

O mito da interferência no espectro de rádio

David Redd, arquiteto da Internet, explica como a má ciência criou a indústria televisiva

Artigo de David Weinberger originalmente publicado em Salon.com, em 12/02/2003
Texto clássico para o ativismo da democratização das comunicações
Tradução livre de Guilherme Barcellos (2003)

the_myth_of_interference

Há uma razão para nossas televisões terem mais poder de fogo do que nós, nos borrifando com trilhões de bytes enquanto nós só respondemos com cômicos toques em nossos controles remotos. Para permitir que os sinais cheguem intactos, o governo tem que dividir o espectro de freqüências em faixas que depois licencia a particulares. A (rede de notícias americana) NBC tem uma licença e você não.

Assim, a NBC pode mergulhá-lo em “Friends” seguido por um “Scrubs” muito especial e você consegue apenas se sentar passivamente em seu sofá. É uma troca assimétrica que domina nossa cultura, economia e política–só o rico e famoso pode divulgar suas mensagens–e tudo baseado no fato que as ondas de rádio no seu indomado hábitat interferem umas com as outras.

Mas elas não fazem isso.

“Interferência é uma metáfora que mascara uma velha limitação da tecnologia como um fato de natureza”. Assim diz David P. Reed, engenheiro elétrico, cientista da computação e um dos arquitetos da Internet. Se ele tem razão, então espectro não é um recurso para ser dividido como ouro ou parcelado como terra. Não é nenhum conjunto de tubos com capacidade limitada por suas larguras ou uma estrada aérea com linhas brancas para manter a ordem.

O espectro está mais para as cores do arco-íris, inclusive aquelas que nossos olhos não podem discernir. Reed diz: Não há nenhuma escassez de espectro mais que há uma escassez da cor verde. Nós poderíamos ligar imediatamente na Internet todo o mundo que recebe um sinal de rádio, e eles poderiam bombear tantos bites quantos jamais desejassem. Sairíamos de uma economia de escassez digital para uma economia de abundância digital.”

Assim jogue fora o livro de regras sobre o que deve ou não ser regulado. Repense completamente o papel da FCC – Federal Communications Commission (Comissão de Comunicações Federal – a ANATEL dos EUA) em decidir quem ganha o que. Se Reed tem razão, quase um século de política governamental sobre como melhor administrar as ondas de rádio precisa ser reconfigurado, do começo ao fim.

Espectro como cor parece uma metáfora desajeitada para pendurar uma mudança de política tão extensa e com tantas implicações sociais e econômicas importantes. Mas Reed diz que não é nenhuma metáfora. Espectro é cor. Literalmente e honestamente em acordo com a verdade de Feynman (renomado cientista).

David Reed é muitas coisas, menos lunático. Ele foi professor de ciência da computação no MIT – Massachusetts Institute of Technology, depois o cientista principal da Software Arts durante seus dias de VisiCalc, e em seguida o cientista principal da Lotus durante seus primeiros dias. Mas ele é provavelmente melhor conhecido como o co-autor do artigo que lhe deu o título de arquiteto da Internet: End-to-End Arguments in System Design. (Argumentos Ponta-a-Ponta em Desenho de Sistemas).

Ou podemos reconhecê-lo como o autor do que passou a ser conhecido como a “Lei de Reed” – o verdadeiro valor de uma rede não é determinado pelo número de pontos individuais conectados (“Lei de Metcalfe“) mas pelo maior número de grupos que habilita. Mas eu tenho que confessar que eu sou parcial quanto a David Reed. Eu o encontrei pessoalmente há três anos numa conferência minúscula quando ele me tirou com destreza de um buraco que eu estava cavando para mim na frente dos meus superiores. Desde então, eu o vejo mostrar seu ilimitado conhecimento técnico em uma lista de e-mail e ser pacientemente útil como fonte para vários artigos nos quais eu trabalhei.

Não precisa muito para conseguir que o Reed exiba suas fortes e bem articuladas convicções políticas e sociais. Mas sobre espectro, ele também fala apaixonadamente porém mais como um cientista. “Fótons, sejam eles de luz, rádio, ou raio gama, simplesmente não interferem com os outros” ele explica. ” Eles atravessam uns aos outros”.

Reed usa o exemplo de uma máquina fotográfica de caixa, ou câmera escura: se um quarto está fechado hermeticamente contra luz com exceção de um pequeno furo, uma imagem do exterior será projetada contra a parede oposta. “Se fótons interferissem com os outros ao se apertarem para passar por aquele buraco minúsculo, nós não teríamos uma imagem clara na parede de trás”, Reed diz.

Se você reclama que é completamente contra a lógica uma onda se apertar por um furo e “se reorganizar” do outro lado, Reed balança a cabeça alegremente e responde: “se fótons podem passar um pelo outro, então eles de fato não ocupam nenhum espaço, já que a definição de ‘ocupar’ é ‘deslocar’. Assim, sim, é contra a lógica. É mecânica quântica”.

“Rádio e luz são a mesma coisa e seguem as mesmas leis”, Reed explica. “Eles são distintos pelo que nós chamamos freqüência”. Freqüência, ele ensina, é somente o nível de energia dos fótons. O olho humano detecta freqüências diferentes como cores diferentes. Assim, autorizando freqüências às emissoras de rádio e televisão, nós estamos literalmente regulando cores. Crayola pode possuir os nomes das cores que inventou e Pantone pode possuir os números pelos quais os desenhistas digitais se referem a cores, mas só o FCC pode lhe dar uma licença exclusiva para uma determinada cor.

Reed prefere falar sobre “cor RF” (radio frequency – freqüência de rádio) porque a alternativa habitual é pensar em espectro como uma representação de propriedade. Se é propriedade, é facilmente visto como finito e algo que pode ser possuído. Se espectro é cor, é muito mais difícil de pensar deste modo. Reed reformularia a frase “a WABC-AM tem uma licença exclusiva para radiodifundir a 770 kHz em NYC (Nova Iorque)” para “O governo concedeu à WABC-AM uma licença exclusiva para o Verde Floresta em NYC “. Só então, de acordo com Reed, a política de licenças atual soa tão absurda quanto é.

Mas se os fótons não interferem, por que nossos rádios e celulares ficam chiando? Por que às vezes sintonizamos duas estações ao mesmo tempo sem ouvir nenhuma direito?

O problema não são as ondas de rádio. São os receptores: “Interferência não pode ser definida como um conceito significante até que um receptor tenta separar o sinal. É o processamento que torna-se confuso, e a confusão é altamente específica ao receptor, Reed diz. Interferência não é um fato de natureza. É um artefato de algumas tecnologias. Isto é óbvio a qualquer um que melhorou um receptor de rádio e descobriu que a interferência sumiu: O sinal não mudou, assim o processamento do sinal é que deve ter melhorado. A interferência estava desde o princípio no olho do observador. Ou, de acordo com Reed, “Interferência é como chamamos a informação que um receptor não consegue distinguir“.

Mas, Reed continua, “eu não posso concordar em colocar toda a culpa nos receptores”. Nós temos rádios estúpidos não porque não sabemos como os fazer inteligentes, mas porque há pouca razão para tal. Eles são projetados para ver sinal como tudo que entra em uma freqüência particular, e ruído como tudo em outras freqüências. “O problema é mais complexo que só fabricar rádios inteligentes, porque algumas das técnicas para processar sinais no receptor são melhor implementadas no transmissor, ou em uma rede de transmissores e receptores. Não são apenas os rádios. É toda a arquitetura de sistemas!”

Um dos exemplos mais simples de uma configuração que funciona foi inventado durante a Segunda Guerra Mundial. Nós estávamos preocupados que os alemães poderiam embrulhar os sinais com os quais nossos submarinos controlavam os torpedos. Isto inspirou a primeira tecnologia de “freqüência-saltante”: transmissor e receptor foram feitos para trocar, em veloz sincronia, entre um grupo de freqüências determinadas. Mesmo se algumas dessas freqüências estivessem em uso por outros rádios ou ‘embrulhadores’, descoberta de erro e a retransmissão assegurariam uma mensagem completa e correta. A Marinha norte-americana usa uma versão de freqüência-saltante como a base de suas comunicações desde 1958. Assim sabemos que sistemas que permitem transmissores e receptores negociarem funcionam–e muito bem.

Assim, que arquitetura Reed implementaria se ele fosse o rei do mundo ou, menos provável, presidente da FCC?

Aqui ele é dogmaticamente não dogmático: “Tentar decidir a melhor arquitetura antes de usá-la sempre falha. Sempre”. Esta é de fato a síntese em uma linha do Argumento Ponta-a-Ponta que ele e seus co-autores apresentaram em 1981. Se você quer maximizar a utilidade de uma rede, e manter seu papel, deve retirar tantos serviços quanto possível da própria rede. Embora isso não seja tão contra a lógica quanto a noção de fótons que não ocupam espaço, pelo menos não é óbvio, porque nossa tentação habitual é melhorar uma rede adicionando serviços a ela.

Isso é o que as companhias de telefone fazem: elas acrescentam a identidade do emissor, e tornam sua rede mais valiosa. Nós sabemos que é mais valioso porque eles nos cobram mais por isto. Mas o Argumento Ponta-a-Ponta diz que adicionar serviços diminui o valor de uma rede de comunicações, porque isso é tomar decisões de antemão sobre o que pessoas poderiam querer. Ao invés, Reed e seus colegas defendem, mantenha a rede sem serviços específicos de forma que seja aperfeiçoada para habilitar inovações sugeridas pelo usuário (a “Ponta”).

Este profundo princípio arquitetônico está no centro do valor da Internet: Qualquer um com uma boa idéia pode implementar um serviço e oferece-lo na rede em vez de ter que propô-lo aos “donos” da infra-estrutura e esperar que eles o implementem. Se a telefonia fosse como a Internet, nós não teríamos tido que esperar 10 anos para adquirir o indicador de chamadas tipo Bina (B indica A); teria sido organizado em uma manhã, implementado à tarde, e estaria pronto para ofertas competitivas na hora do jantar.

Para Reed a pergunta é, qual o acordo mínimo exigido para ordenar as comunicações sem fio? Quanto menos construções colocadas no próprio sistema, mais inovação–em idéias, serviços e modelos empresariais–surgirão nas extremidades.

Há grande controvérsia, porém, sobre exatamente o quanto de protocolo “aperto de mãos” deve ser embutido pelo fabricante e obrigado por lei. Reed acredita que na medida em que cresce o número de funções básicas de processamento de sinal de rádio que são defined in software, (definidas por softwares), em lugar de gravadas no hardware, os rádios poderão adaptar-se às novas mudanças, mesmo depois de estarem em uso. Reed vê um mundo de “rádios bem-educadas” que negociarão novos protocolos de diálogo e pedirão ajuda a suas colegas.

Ainda que a FCC seja retirada do centro do sistema de forma que os “finais” possam negociar dinamicamente as conexões mais eficientes, Reed vê uma área para envolvimento governamental: “A FCC deveria ter o papel de especificar a pesquisa de ciência e tecnologia pertinente, através da NSF – National Science Foundation (Fundação de Ciência Nacional). Pode até mesmo haver lugar para um regulamento centralizado, mas que seja focalizado em problemas reais na medida que surgirem, não em fantasias teóricas baseadas em projeções de limites de tecnologia atuais.”

Falando com Reed fica claro que ele se sente frustrado. Ele vê uma economia que está pronta para deslanchar sendo bloqueada por políticas baseadas na tecnologia de quando o Titanic afundou. (Literalmente: O governo se deu o direito de regular as ondas de rádio em 1912 por causa da inabilidade do Titanic em enviar um sinal claro de SOS). Uma chave para a nova geração, de acordo com Reed, são os SDR- software-defined radios (rádios definidos por softwares). Um SDR é inteligente justamente onde os receptores atuais não são. Não importa quão sofisticado e caro é o receptor em sua sala, quando ele sintoniza uma estação só sabe fazer uma coisa com a informação que está recebendo: trata-la como dados para criar variações sutis na pressão do ar. Por outro lado, um SDR não faz nenhuma suposição assim, é um computador e pode tratar dados da maneira que for programado. Isso inclui poder decodificar duas radiodifusões em uma única freqüência, como demonstrou Eric Blossom, engenheiro no projeto de Rádio GNU.

Claro que um SDR não precisa tratar informação como sons codificados. Por exemplo, diz Reed, “quando uma nova Super-Fabulosa rede de TV de Ultra-Definição difundir seu primeiro sinal, os primeiros bites serão um URL para um Website que contém o software para receber e decodificar os sinais em cada tipo de TV no mercado “.

Mas os SDR só tratam de um componente. Reed vê inovação em todo espectro. Ele e seu colega, o técnico Dewayne Hendricks, têm discutido o que eles chamam de “faixa ultra larga”, um nome criado para se referir a um grupo de técnicas onde a UWB “ultra-wide band” (banda ultra-larga) é a mais conhecida. As faixas ultra-largas juntam enormes quantias de informação em mensagens muito pequenas e as transmite por um amplo conjunto de freqüências: muitas cores, muita informação. Reed diz: “O UWB proposto atualmente é um simples primeiro passo. Emissores UWB são simples e poderiam ser bem baratos. Podem transmitir uma quantia enorme de informação em uma mensagem muito pequena–por exemplo, um DVD inteiro poderia ser enviado a seu carro em um ‘drive-through’ de video-locadora. Outras técnicas de banda-muito-larga, não tão desenvolvidas quanto a UWB, espalham energia mais suavemente no tempo e, Reed acredita, é mais provável serem a base de redes altamente renováveis.

Pelo compromisso Ponta-a-Ponta de Reed, deve estar claro que ele não está interessado em legislar contra tecnologias velhas mas ajudar o mercado de usuários decidir a tecnologia que eles querem. “Nossa meta deve ser habilitar um processo que encoraja a obsolescência de todos os sistemas atuais tão depressa quanto economicamente praticável. Isso significa que tão rápido quanto possa ser desdobrada tecnologia mais nova, melhor para implementar funções herdadas, esses funções devem desaparecer devido a competição”. em outras palavras, você poderá sintonizar o sinal do “West Wing” da rede NBC em sua TV até que tantas pessoas tenham abraçado a nova tecnologia que as emissoras decidam abandonar as técnicas de difusão atuais. “As pessoas não foram obrigadas a abandonar o Apple II. Fizeram isto voluntariamente por ter surgido uma tecnologia melhor”, Reed afirma.

Mas em última instância Reed não está nisto porque ele quer que nós tenhamos televisões melhores ou máquinas fotográficas digitais ligadas em rede. “A má Ciência está sendo usada para fazer a concentração oligárquica nas comunicações parecer um fato da paisagem“. Abrir o espectro para todos os cidadãos iria, de acordo com ele, ser um passo épico em substituir o “não” pelo “e” na famosa frase de Richard Stallman: “Livre como em ‘livre expressão’, não livre como ‘cerveja livre’“. De acordo com Reed: “Nós nos acostumamos a parcelar pedaços e falar sobre ‘largura de banda’. Abrir o espectro mudaria tudo isso”.

Mas certamente deve haver algum limite. “De fato, não há. Informação não é uma coisa física que tem que ter um limite exterior mesmo se nós ainda não sabemos qual é o limite. Além de avanços na compressão, há algumas pesquisas espantosas que sugerem que a capacidade informadora de sistemas pode de fato aumentar com o número de usuários”. Reed está se referindo a trabalhos de investigadores no campo de redes de rádio, como Tim Shepard e Greg Wornell do MIT, David Tse da UC-Berkeley (Universidade da Califórnia em Berkeley), Jerry Foschini da Bell Labs, e muitos outros, como também trabalho sendo realizado pelo Laboratório de Mídia do MIT. Se esta pesquisa cumprir sua promessa, será mais um modo de mostrar como a metáfora de espectro-como-recurso é falsa e desencaminha a política.

“A melhor ciência é freqüentemente contra a intuição”, Reed conclui. “E ciência ruim sempre conduz a políticas ruins”.

David Weinberger é especialista e comentarista
norte-americano em temas relacionados à Internet,
pesquisador do Berkman Center de Harvard, é mais
conhecido como co-autor do Manifesto Cluetrain.

A Cultura Digital Brasileira na conferência sobre o ‘Commons’ em Berlim


David Bollier, especialista e autor de Viral Spiral, faz a palestra de abertura do evento

Através de alguns encontros oportunos em viagens ao exterior, onde temos a chance de divulgar o que está acontecendo no Brasil no âmbito do que chamamos Cultura Digital, fui convidado a participar na primeira Conferência Internacional sobre Commons (“I International Commons Conference“).

Realizada recentemente pela Fundação Heinrich Boll em Berlim, a Conferência reuniu por volta de 200 pesquisadores, ativistas e especialistas, e teve como objetivo principal evidenciar os pontos em comum entre movimentos aparentemente distintos como por exemplo, o software livre, e as organizações locais para governança de recursos fundamentais como a água, ou ainda as iniciativas para criação de bancos de sementes como alternativa ao uso de sementes genéticamente modificadas protegidas por copyright.

O plano era fomentar uma convergência entre os estudiosos dos diversos ‘commons’, e os ativistas que estão desenvolvendo os projetos na prática, criando assim as condições para o lançamento de uma “plataforma política baseada no ‘commons’”.

‘Commons’?

A Wikipedia traduz the commons como ‘bens comunais‘, ou ‘comunais’. Quando pensamos em estratégias para promover esta aproximação entre os diferentes grupos que valorizam os modelos de gerenciamento sobre propriedades coletivas, vale indagar se o termo ‘commons’, no momento em que é portado para outras línguas e culturas, se presta a esclarecer / comunicar os conceitos e valores embutidos.

O que pude perceber em Berlim é que existem diferenças consideráveis entre os que se reúnem para tratar deste tão específico tema. Os chamados ‘commons tradicionais’, que se interessam pelas modelos clássicos de governança sobre propriedade coletiva, e os vibrantes ‘commons digitais’, a turma que se converteu ao compartilhamento e ao trabalho coletivo em rede, constituem por si duas tribos já bem distintas.

Fato é que os ‘commons tradicionais’ apresentam interessante acúmulo no tema, focando nos modelos históricos de governança para gerenciar recursos compartilhados. O elemento confiança é destacado como fundamental para que os pares respeitem as normas estabelecidas, e a propriedade comum configura um fator de agregação social que irá facilitar a cooperação em outras áreas.

Entretanto, é preciso admitir que os ‘commons tradicionais’ foram sistemáticamente atacados durante todo o século passado pelas estratégias hegemônicas do mercado, que se valeram de parábolas como a Tragédia dos Comuns (‘Tragedy of the Commons‘) para naturalizar uma prevalência da propriedade privada como referência de eficácia gerencial. O prêmio nobel de economia para Elinor Ostrom em 2009, por seus estudos em governança econômica do commons, promete inaugurar uma nova fase para o conceito.

‘Commons Digitais’ na ofensiva

Michel Bawuens da P2P Foundation, em sua palestra na ICC em Berlim, afirmou que os ‘commons digitais’, por sua vez, estão na ofensiva. O sucesso do modelo de produção em software livre, que se tornou infra-estrutura fundamental da rede mundial de computadores, e também das corporações que apresentam melhor desempenho nos novos modelos de negócio da web, demonstra de maneira definitiva a eficácia destas novas formas de produção.

Neste cenário, os ‘commons digitais’ se mostram prontos para apresentar soluções inovadoras às questões colocadas pelas crises política e econômica globais. As licenças Creative Commons para expressão individual e compartilhamento, e a GPL (General Public License) como geradora de “commons”, são soluções bem acabadas e inovadoras para um novo momento econômico.

Com a queda nos custos de coordenação / comunicação, a hierarquia (instituições) deixa de ser necessária à coordenação de iniciativas coletivas. Dessa forma, dinâmicas locais podem se tornar globais. Quanto ao elemento confiança, fundamental para o funcionamento das dinâmicas commons, vem claramente se reconfigurando e mudando de foco especialmente entre os mais jovens: “confio mais em pessoas como eu, com quem eu posso me relacionar diretamente, do que em instituições opacas”.

Cultura Digital Brasileira

No Brasil, o uso intensivo das possibilidades de interatividade da Internet e dos ambientes de redes sociais tem gerado um público que se apropria muito rápido da cultura digital. Sempre gosto de destacar o fato de que no Brasil experimentamos o fenômento da rede social ubíqua (Orkut – 2005/6) bem antes do resto do mundo (Facebook – 2009/10).

Por outro lado, o Programa Cultura Viva do MinC, com a implementação dos Pontos de Cultura, tornou o Brasil o primeiro Estado a promover como política pública o exercício de uso efetivo e integrado das duas principais soluções inovadoras dos ‘commons digitais': o software livre e as licenças alternativas como o Creative Commons.

A vitalidade dinâmica que emergiu do exercício digital dos Pontos de Cultura impactou o MinC de maneira irreversível, e em 2009 foi criada a Coordenação de Cultura Digital, que deu origem à rede social CulturaDigital.BR — plataforma para a construção colaborativa de políticas públicas e ambiente permanente do processo do Fórum da Cultura Digital Brasileira. Um novo jeito de fazer política pública.

A rede CulturaDigital.BR, além de servir de plataforma para publicação de conteúdos das iniciativas fomentadas, proveu tecnologia e hospedou processos de colaboração interativa como a elaboração do Marco Civil da Internet e a consulta pública sobre a revisão da Lei de Direito Autoral. A rede é também avatar político no Fórum Brasil Conectado, instância consultiva do Programa Nacional de Banda Larga. O projeto de uma rede social aberta lançada por um governo, único no mundo, ganhou menção honrosa no Prix Ars Electronica 2010.

Ao tentar explicar em Berlim, como e porque estas inovações estão acontecendo no Brasil, e mais especificamente no Ministério da Cultura, tive que fazer referência a Gilberto Gil e sua postura como ministro-hacker. Mencionei também a presença de elementos da Tropicália na narrativa que propõe o exercício da cultura digital. Enfim, disponibilizo a apresentação abaixo:

Nesta apresentação, a intenção foi mostrar como as iniciativas de aproximação de arte e tecnologia do MinC foram exitosas em promover a rápida apropriação de novos modos de fazer amparados no digital. Além disso, tentei demonstrar como estes novos modos de fazer impulsionaram a inovação na condução da política pública, agora realizada através de plataformas tecnológicas, ambientes digitais interativos.

Minha manifestação ao final do evento foi de que, para se criar uma plataforma política baseada no commons, seria importante criar o ambiente e a cultura de interatividade capaz de promover a desejada convergência. Trata-se da cultura de se utilizar efetivamente estas ferramentas. Me parece que é neste aspecto que os ‘commons digitais’ podem se colocar a serviço das outras modalidades commons, e do resto da sociedade. Este é um dos traços marcantes da inovação que a cultura digital brasileira representa no cenário global.

Veja também:

Silke Helfrich apresenta a Conferência Internacional sobre o ‘Commons': em busca de um movimento mais amplo

À medida em que a população mundial passou a ter maior  acesso à Internet, um número crescente de movimentos caracterizados pela lógica livre e aberta (free and open) emergiram – incluindo os movimentos de software livre e open source, cultura livre (free culture) , creative commons, o livre acesso (open access) e dados abertos (open data).

Na medida em que estes movimentos se tornaram mais amplamente conhecidos – e bem sucedidos – um contingente maior de interessados se dedicaram ao etendimento de seu significado mais amplo, e ao estabelecimento de elementos comuns entre as diferentes iniciativas. Hoje, muitos observadores consideram que tais movimentos compartilham objetivos e aspirações muito semelhantes, e que em seu conjunto representam um renascimento da noção de “commons”.

Há também um consenso emergente de que, ao contrário do que foi inicialmente assumido, este renascimento não se limita à Internet e aos fenômenos digitais, mas sua influência pode também ser observada na forma em que alguns produtos físicos são fabricados (por exemplo, o movimento do hardware open source) e nos modelos inovadores emergentes para o gerenciamento do mundo natural.

Por exemplo, alguns integrantes de movimentos que se auto denominam “commoners” (‘comuns’) afirma que, quando os agricultores de uma localidade se mobilizam para a criação de bancos de sementes, a fim de preservar a diversidade vegetal regional, e para evitar que grandes empresas de biotecnologia possam forçar o uso de sementes de culturas geneticamente modificadas protegidas por patente, os seus objetivos são essencialmente os mesmos que os dos desenvolvedores de software livre, quando stes lançam seus softwares sob a Licença Pública Geral (GPL). Ambos estão tentando evitar que bens que hoje se encontram na esfera dos bens comuns possam ser privatizados – geralmente por empresas multinacionais que na sua busca incansável de lucros consideram justificável a apropriação, para seus próprios fins, de recursos que por direito pertencem a todos.

Uma vez compreendido neste contexto mais amplo, os novos ‘comuns’ afirmam, torna-se evidente que os movimentos livres e abertos têm potencial para catalisar radicais mudanças sociais, culturais e políticas, mudanças que em função das falhas agora evidentes do capitalismo de Estado (demonstrado, por exemplo, pela crise financeira global) são urgentemente necessárias.

Um movimento mais amplo

A fim de facilitar esta mudança, no entanto, argumentam os novos ‘comuns’ que o conjunto dos movimentos livres e abertos devem ser considerados como componentes do movimento ‘commons’ maior. Além disso, é necessário abranger e articular com os outros grandes grupos políticos e da sociedade civil que têm se mobilizado para desafiar o domínio do que poderia ser vagamente chamado de ‘acordo pós-Guerra Fria’ – incluindo o ambientalismo, a política verde, e as muitas organizações e iniciativas que tentam abordar tanto as questões do mundo em desenvolvimento quanto as alterações climáticas.

Mas para criar esse movimento maior, diz a ativista Silke Helfrich, será necessário primeiramente convencer os defensores destes diferentes movimentos de que todos compartilham objetivos comuns. Como hoje se encontram fragmentados, seus objetivos comuns não são imediatamente óbvios, e por isso serão necessárias iniciativas específicas para tornar a identidade mais transparente. Este objetivo é importante, sublinha Helfrich, uma vez que somente através da cooperação estes diferentes movimentos podem ter a esperança de se tornarem politicamente eficazes.

É com este objetivo que Helfrich está organizando uma Conferência Internacional sobre o Commons, que reunirá mais de 170 praticantes e observadores do cenário ‘commons’, provenientes de 34 países diferentes. A ser realizada no início de novembro próximo, a conferência será organizada pela Fundação Heinrich Böll em Berlim.

O objetivo da conferência, diz Helfrich, é criar a centelha de “um avanço significativo no debate político internacional sobre o ‘commons’, e uma convergência entre os estudiosos dos diversos ‘commons’ e os ativistas desenvolvendo projetos na prática.” Helfrich espera que este evento conduzirá a um acordo sobre uma “plataforma política baseada no ‘commons'”.

Qual o objetivo último? Nada menos, ao que parece, do que a elaboração de uma nova ordem social e política. Ou seja, um mundo “além do mercado e do Estado” – onde as comunidades são capazes de retomar de volta o controle de suas vidas, das mãos de governos distantes e sem rosto, e das corporações desprovidas de compromisso social.

Como Helfrich coloca, “os ideais essenciais do capitalismo de Estado – o poder de coerção top-down do governo e a chamada ‘mão invisível’ do mercado – têm de ser substituídos pelos princípios de co-governança e de co-produção auto-organizada dos bens comuns por pessoas distribuídas em localidades ao redor do mundo.”

Boa qualificação

Silke Helfrich está bem qualificada para organizar uma tal conferência. Ela já realizou três conferências sobre o ‘commons’, e tem um profundo entendimento sobre política de desenvolvimento. Entre 1999 e 2007, foi responsável pelo escritório regional da Fundação Heinrich Böll para a América Central, México e Caribe – onde desenvolveu estudos sobre a globalização, questões de gênero e direitos humanos.

Desde seu retorno à Alemanha, em 2007, Silke desenvolveu uma reputação internacional de defesa do ‘commons’ em língua alemã através do CommonsBlog, e também coordena um forum de debates políticos interdisciplinares chamado “Time for the Commons” na Fundação Heinrich Böll.

Nos últimos anos Silke Helfrich publicou vários artigos e relatórios sobre os bens comuns para as organizações da sociedade civil e, recentemente, editou uma antologia de ensaios sobre o ‘commons’ chamada  To Whom Does the World Belong? The Rediscovery of the Commons. (A quem pertence o mundo? A redescoberta do Commons) .

Silke Helfrich apresenta o contexto e os propósitos da Conferência Internacional sobre o Commons em mais detalhes na entrevista abaixo, concedida a Richard Poynder*:

Silke Helfrich

Silke Helfrich

Por que você se interessou pelo tema do commons?

SH: Eu nasci na Alemanha Oriental, e quando o muro caiu em 1989 eu tinha 22 anos e tinha acabado de terminar meus estudos. Então eu vivi por mais de oito anos em El Salvador e no México, sendo que ambos são países extremamente polarizados no que diz respeito à distribuição da riqueza.

Então eu experimentei dois tipos muito diferentes de sociedade: uma em que o Estado é o árbitro das condições sociais, ea maneira pela qual os cidadãos possam participar na sua sociedade e, depois de 1989, no qual o acesso ao dinheiro determina a capacidade de participar na sociedade.

Também tem sido sempre a minha convicção de que a democracia deve envolver muito mais do que simplesmente a realização de eleições livres para, em seguida, delegar toda a responsabilidade aos políticos profissionais. Precisamos democratizar radicalmente a esfera social, política e econômica – e precisamos de um novo marco institucional para o fazer que está hoje além do raio de ação tanto do mercado quanto do Estado. Isso, na minha opinião, é precisamente o que o conceito de ‘commons’ representa hoje.

Você pode expandir a sua definição de ‘commons’, e o potencial do conceito?

SH: O ‘commons’ não é uma coisa ou um recurso. Não é só a terra ou a água, uma floresta ou a atmosfera. Para mim, o ‘commons’ é antes de tudo constante inovação social. Implica em um processo de decisão auto-determinado — dentro de uma grande variedade de contextos, regras e definições legais — que permite a todos nós usar e reproduzir nossos recursos coletivos.

A abordagem ‘commons’ pressupõe que a forma correta de uso da água, das florestas, do conhecimento, do código, das sementes, das informações em geral e muito mais, é realizada ao se garantir que a minha utilização desses recursos não prejudique o uso que outros farão dos mesmos, ou coloque o risco de esgotamento destes recursos. A abordagem implica no uso justo de tudo o que não pertence a uma única pessoa.

Estamos falando do respeito ao princípio de correspondência “uma pessoa – uma parte”, especialmente quando nos referimos os bens comuns globais. Para conseguir isso, precisamos construir a confiança e fortalecer as relações sociais dentro das comunidades.

Nossa premissa é de que não somos simplesmente “homo economicus”, perseguindo apenas os nossos próprios interesses egoístas. A crença central subjacente ao movimento ‘Commons’ é: eu preciso dos outros e os outros precisam de mim.

Não me parece que existam outras alternativas para a crise que vivemos hoje.

CONVERGÊNCIA

RP: Não seria correto dizer que o commons engloba componentes de uma série de movimentos diferentes que têm surgido nos últimos anos, incluindo software livre e o open source ( FOSS ), Creative Commons , a política Verde , e todas as iniciativas voltadas para ajudar os países em desenvolvimento?

CS: Isso mesmo.

RP: Tem sido um processo natural de convergência?

SH: A partir da perspectiva do ‘commons’, trata-se de uma convergência natural, mas não é imediatamente óbvia a grande semelhança que os diferentes movimentos e suas preocupações básicas apresentam.

RP: O que você quer dizer com isso?

SH: Deixe-me dar um exemplo: Quando começamos a trabalhar com o conceito de ‘commons’ na América Latina há cerca de seis anos atrás, estávamos trabalhando principalmente com os movimentos sociais e ecológicos, que eram críticos do impacto causado pela globalização e pelo paradigma do livre comércio. Foi então que  um colega sugeriu que deveríamos convidar pessoas do movimento de software livre para participar de nossas discussões.

Enquanto fazíamos o convite, nosso primeiro pensamento foi: O que o software proprietário apresenta em comum com os organismos geneticamente modificados (OGM)? Ou, para colocar de outra maneira, o que defende o movimento do software livre, e o que este movimento poderia eventualmente ter em comum com organizações que lutam por manter regiões livres de OGMs ? Da mesma forma, o que poderia ter em comum com a agricultura apoiada pelas comunidades locais (CSA), e com movimentos dedicada a defender o acesso à água e o controle social sobre os seus recursos biológicos?

Mas rapidamente percebemos que todos eles estão fazendo a mesma coisa: defender os bens comuns! Assim, desde então, tornaram-se comprometidos em promover a “convergência dos movimentos”.

RP: Para aqueles que têm acompanhado o desenvolvimento da Internet grande parte do debate sobre o commons surgiu a partir da maneira como as pessoas – especialmente as grandes empresas multinacionais – têm procurado fazer valer os direitos de propriedade intelectual no ambiente digital. Em paralelo, houve um grande debate sobre o impacto das patentes no mundo em desenvolvimento – as patentes sobre drogas que salvam vidas, por exemplo, e as patentes sobre produção de alimentos. Mas, visto de uma perspectiva histórica, esses debates estão longe de serem novos – eles têm se repetido ao longo da história, e o conceito de ‘commons’ remonta ao perído anterior aos famigerados ‘enclosures‘ que tiveram lugar na Inglaterra dos séculos 15 e 16.

CS: Isso mesmo. Então, de certa forma estamos a falar sobre o renascimento das comunidades.

E a razão por que os desenvolvedores de software livre estão engajados na mesma luta de outros setores, como por exemplo os pequenos agricultores, é simples: quando as pessoas defendem o uso livre de código digital, como o movimento do software livre faz, eles estão defendendo nosso direito de controlar as nossas ferramentas de comunicação . (Que é essencial quando você está falando sobre a democracia).

E quando as pessoas organizam bancos de sementes locais para preservar e compartilhar a enorme variedade de sementes na região, eles também estão simplesmente defendendo o seu direito a usar e reproduzir o ‘commons’.

Ao fazer isso, eu diria, eles estão fazendo uso de uma fonte de recursos riquíssima – porque um elemento fundamental do ‘commons’ é a abundância.

RP: Hoje em dia, geralmente são levados a pensar o mundo natural em termos de escassez e não de abundância.

CS: Bem, mesmo os recursos naturais não são escassos em si mesmos. Eles são finitos, mas isso não é a mesma coisa que escasso. O ponto é que se não formos capazes de utilizar os recursos naturais coletivos (os nossos recursos comuns) de forma sustentável, na sequência, eles se tornarão escassos. Nós os tornaremos escassos!

O bem comum (‘commons’), insisto, é acima de tudo uma fonte de recursos rica e diversificada que tem sido desenvolvida coletivamente. O importante é a comunidade, ou o controle da população sobre esta de recursos, ao invés de um controle emanado de uma hierarquia top-down. É neste modelo que reside o nosso futuro!

Foi este precisamente o significado do Prêmio Nobel de Economia concedido a Elinor Ostrom, em 2009. [Sobre a atribuição do prémio, a Academia Real Sueca de Ciências, comentou: “Elinor Ostrom desafiou a sabedoria convencional de que a propriedade comum é mal administrada e deve ser regulada por autoridades centrais ou privatizadas”.

Da mesma forma, o Right Livelihood Award [o chamado Nobel Alternativo] também busca destacar esta nova visão sobre a economia e a sociedade.

EVIDENCIAR A SEMELHANÇA

RP: Ok, então nós estamos dizendo que vários movimentos diferentes surgiram com objetivos semelhantes, mas as semelhanças não são imediatamente óbvias?

SH: Correto. Por isso é importante evidenciar esta semelhança. O movimento global dos ‘commoners’, hoje, apresenta um bom crescimento e é constituído por grande diversidade, mas segue atuando de forma fragmentada.

Por exemplo, podemos observar uma série de movimentos transnacionais florescentes baseado no conceito de ‘commons’ (ex.: o software livre, a Wikipedia, o livre acesso a publicações acadêmicas, etc) – os quais em geral têm origem na dimensão cultural e digital, e todos eles são baseados na colaboração e no compartilhamento comunitário.

Entretanto, muitos outros projetos comuns são modestos em tamanho, de base local, e com foco nos recursos naturais. Existem milhares deles, e eles fornecem soluções que confirmam a afirmação originária dos grupos ETC de Pat Mooney: “a solução vem das pontas” [“the solution comes from the edges”].

Agora, esses diferentes grupos mal conhecem uns aos outros, mas o que todos eles apresentam em comum é que eles estão lutando para tomar o controle de suas próprias vidas.

Juntos todos esses movimentos são realmente parte de um grande movimento cívico que está prestes a descobrir sua própria identidade, assim como o movimento ambientalista o fez cerca de 30 ou 40 anos atrás. A cooperação é a melhor maneira de fazê-las crescer e tornar-se politicamente relevantes. Assim, o objetivo deve ser convencer os vários ativistas destes movimentos que todos têm muito a ganhar com o trabalho em conjunto, articulado, colaborativo.

RP: Você concorda que a Internet tem desempenhado um papel importante no surgimento destes movimentos?

SH: Concordo. A Internet tem sido fundamental no desenvolvimento de projetos globais comuns, como o software livre e a Wikipedia, e isso facilita muito o compartilhamento de idéias – que é fundamental para tornar qualquer movimento politicamente eficaz.

Assim, a Internet permite-nos cooperar além das fronteiras tradicionais, e nos permite tomar um dos recursos mais produtivos do nosso tempo – “a gestão do conhecimento e da informação” – em nossas próprias mãos.

Olhe para as campanhas da AVAAZ, por exemplo. O número de pessoas que eles são capazes de conectar e mobilizar é incrível. [Em três anos, a Avaaz cresceu para 5.500.000 membros distribuídos em todos os países, tornando-se o maior movimento web global da história].

Um problema, porém, é que muitas comunidades que são fortemente dependentes de tecnologias baseadas na Web não estão realmente em sintonia com o fato de que, quanto mais acesso temos a esses tipos de tecnologias, mais tendemos a abusar na utilização de nossa fonte comum de recursos naturais. Então eu acho que nós precisamos compreender que a “abertura” ['openness'] no mundo digital e a “sustentabilidade” no mundo natural devem ser tratadas em conjunto.

RP: Você pode desenvolver mais esta afirmação?

CS: Nós precisamos mais do que apenas o software livre e o hardware livre. Precisamos de software livre e hardware livre, projetado para nos tornar independentes da necessidade de adquirir um fluxo constante de aparelhos cada vez mais devorador de recursos.

Então, ao invés de sair a cada três anos para comprar um laptop novo repleto de software que requer o pagamento de taxas de licença para grandes corporações, que passam a ter controle sobre a nossa comunicação, devemos ter em vista possuir apenas um computador open-hardware / modular / reciclável que execute aplicações baseadas na comunidade de software livre e que possa durar toda uma vida.

Este é um grande desafio, e é um dos muitos desafios que vamos debater na Conferência Internacional sobre Commons. Uma das questões-chave aqui é esta: a idéia de abertura é realmente compatível com os limites de nossa fonte comum de recursos (naturais)?

OBJETIVO GERAL

RP: Qual é o objetivo geral da Conferência Internacional Commons?

SH: Para colocá-lo modestamente (sorriso), o objetivo é conseguir um avanço no debate político internacional sobre o ‘commons’, e uma convergência dos pesquisadores que estão estudando o commons e os ativistas que desenvolvem as ações no campo.

Acreditamos que a conferência vai promover o planejamento e o desenvolvimento de organizações e políticas baseadas no ‘commons’, bem como fomentar sua capacidade de articulação em rede. E esperamos que até o final da conferência um conjunto de princípios e metas de longo prazo tenha emergido.

Todo o esforço, [ou devo dizer aventura? (sorriso)] certamente irá contribuir para a formação do que o meu colega Michel Bauwens – co-organizador da conferência – chama de “A Grande Coalizão dos Comuns“.

RP: Eu notei que não há nenhum site dedicado, ou publicidade prévia para a conferência. E a participação ocorre apenas por convite. Assim é porque ainda não existe ainda um consenso totalmente sobre o commons e seu potencial?

CS: Não, nós temos uma explicação muito melhor: Não houve necessidade de publicidade prévia para a conferência. Pelo contrário, como eu freqüentemente me vejo tendo que explicar às pessoas, a resposta ao nosso primeiro “chamada para reservar a data” para a conferência foi tão esmagadoramente positiva que rapidamente percebemos que o evento estaria totalmente lotado, sem qualquer publicidade. E, na verdade estamos agora mais do que lotados.

A participação presencial na conferência é apenas por convite porque nós projetamos o programa de conferências para aqueles que já estão muito familiarizados com o tema, seja através da análise do ‘commons’, ou através da produção de ‘commons’. Dessa forma, todos os nossos participantes são especialistas. Na verdade cada um deles estaria qualificado para lidar com uma palestra para a conferência.

Em outras palavras, o que nós projetamos é uma conferência de rede para os ‘commoners’ de todo o mundo – e mais de 170 pessoas de 34 países se inscreveram. Trata-se de uma grande realização, que só tem sido limitado pela disponibilidade de espaço e de recursos.

Espero, contudo, que teremos um verdadeiro Fórum Mundial de Commons dentro de um ano ou dois (sorriso).

JANELA DE OPORTUNIDADE

RP: Você acha que a atual crise financeira mundial abriu uma janela de oportunidade para os ‘commoners’, como eles se referem a si mesmos?

SH: Eu acho que sim. A crise atual (que, aliás, não é apenas uma crise financeira, e sim um conjunto de múltiplas crises) graficamente demonstra que não podemos deixar as questões políticas somente nas mãos dos políticos, nem os problemas relacionados com dinheiro somente nas mãos dos banqueiros, ou as questões relativas os nossos bens comuns somente para o mercado ou o Estado. É tudo nosso!

A crise também mostrou claramente que o jogo acabou. O que é necessário agora não são simplesmente algumas regras novas que permitam uma nova rodada do mesmo velho jogo, mas um cenário totalmente novo, que estabeleça uma nova relação entre o ‘commons’, o Estado e o mercado.

RP: O que seria essa nova relação? O ‘commons’ (bem comum) entra em competição com o Estado e o mercado, ou você o vê trabalhando em articulação com estes dois atores fundamentais do poder?

CS: Para mim a frase “um bem comum para além do mercado e do Estado” não significa necessariamente um cenário sem mercado e sem Estado: o ‘Commons’ concebidos como um sistema complexo de recursos, comunidades e regras demanda estruturas de governança muito diferentes das que conhecemos hoje. Na verdade, algumas destas serão tão complexas que demandarão uma nova estrutura institucional de governo – o que se poderia chamar de um Estado parceiro.

Uma coisa, porém, é fundamental: as pessoas que dependem destes bens comuns para a sua subsistência e bem-estar tem que ter seus interesses representados majoritariamente em todas as decisões tomadas sobre os bens comuns.

Claramente, corporações, empresas e cooperativas sempre atuaram sobre esta fonte de recursos, o ‘commons’. E para tudo o que eles produzem, eles sempre terão os nosso recursos comuns como matéria-prima. Portanto, a pergunta que precisamos fazer é: o que esses atores retornam para o Commons? Não podemos permitir que apenas retirem recursos do ‘commons’. O princípio básico deveria ser: Quem utiliza recursos do ‘commons’, deve também acrescentar ao ‘commons’.

Em outras palavras, esses agentes externos não podem ser autorizados a fazer o que quiserem com recursos coletivos. Direitos de propriedade privada exclusivos não podem existir na dimensão do ‘commons’ – conforme descrito no Manifesto Commons publicado no site da Fundação Heinrich Böll.

RP: Não seria correto dizer que o Commons não é apenas um novo movimento político e social, mas uma nova estrutura intelectual para compreender o mundo e, talvez, um catalisador para uma nova ordem social pós-industrial?

CS: Nós não estamos necessariamente a falar de uma ordem pós-industrial, mas é minha convicção de que o paradigma do ‘commons’ tem de ser baseado na visão de um ordem pós-combustível fóssil.

Tampouco estamos tratando de uma ordem nova – como já mencionamos anteriormente. Eu diria que trata-se de um antigo modelo conceitual, o qual tem de ser constantemente re-apropriado de forma emergente, e “modernizado”.

Mas sim, trata-se de um quadro conceitual para a compreensão do mundo, que abre a nossa mente para a identificação de soluções criativas, práticas, coletivas e institucionais para os dois problemas mais urgentes, ao mesmo tempo. Ou seja, o desafio ambiental e os problemas sociais que enfrentamos hoje.

RP: Existe uma escola de pensamento que diz que o desafio ambiental pode ser resolvido pelo mercado.

SH: Sim, mas eu não concordo. Por exemplo, não podemos simplesmente resolver a crise ecológica através do aumento do preço da energia (ou seja, a introdução de um incentivo baseado no mercado, a fim de reduzir o consumo) – porque isso não é uma solução para os pobres.

Isso nos lembra que os elementos essenciais do capitalismo de Estado – o poder de coerção do governo, e a chamada “mão invisível” do mercado – têm de dar espaço aos princípios de co-gestão e de co-produção típicos do movimento ‘commons’, auto-organizados pelas pessoas distribuídas em localidades ao redor do mundo.

LEITURA

SILKE HELFRICH – ARTIGOS, ENTREVISTAS E REPORTAGENS

(*) Richard Poynder escreve sobre tecnologia da informação, telecomunicações e de propriedade intelectual. É especializado em serviços online, sistemas eletrônicos de informação, Internet, Acesso Livre, e-Ciência e e-pesquisa; cyberinfrastructure; gerenciamento de direitos digitais, Creative Commons, Open Source Software, Software Livre, copyright, patentes e informações sobre patentes. Richard tem contribuído para uma ampla gama de especialistas, publicações nacionais e internacionais, e foi editor e co-autor de dois livros: ‘Hidden Value’ e ‘Caught in a Web’, sobre Propriedade Intelectual no Ciberespaço. Ele também contribui para programas de rádio.

Neutralidade da Rede: Google mostra suas verdadeiras cores? E você?

Google EvilOs grupos que defendem os princípios abertos da Internet foram seriamente impactados nesta segunda-feira por um anúncio conjunto do Google e da Verizon, propondo um novo framework legislativo para implementação do tão mencionado (e pouco compreendido) conceito de ‘neutralidade da rede’.

Antes de ir mais fundo no tema, vale dizer que a princípio básico original de ‘neutralidade da rede’ determina que provedores de acesso à Internet não podem exercer qualquer discriminação entre os diferentes tipos de dados que trafegam na rede aberta. No recente processo de construção colaborativa do Marco Civil da Internet no Brasil, a proposta final contempla em seu artigo art 2º, onde trata de fundamentos e princípios do uso da rede, o inciso 7º, que menciona a ‘preservação e garantia da neutralidade da rede’.

Entretanto, é preciso um pouco mais de contexto para entender o significado mais amplo do anúncio Google Verizon. Há anos vem se desenrolando o debate nos EUA, no congresso e na FCC (Federal Communications Commision), em torno de uma possível regulamentação do princípio de ‘neutralidade da rede’. No último ano, uma consulta pública com o objetivo de criar algum tipo de regulação neste sentido recebeu dezenas de milhares de comentários, e entre os especialistas não há consenso sobre o real valor da ingerência de governos no funcionamento da Internet. Mesmo entre os que concordam com o princípio original da neutralidade, existem aqueles que temem o ‘efeito cavalo de tróia’ decorrente de qualquer poder de interferência concedido.

É neste cenário que surge a proposta Google Verizon. Vale conhecer as 7 diretrizes anunciadas.

Por um lado, apresenta iniciativas que buscam uma regulação factível para a ‘neutralidade da rede’, confirmando a prerrogativa original do princípio (ao menos para as redes cabeadas), propondo ao FCC um modelo de análise caso-a-caso das transgressões que seja consistente com requisitos técnicos adotados por organização (standard setting) amplamente reconhecida pela comunidade da rede, e exigindo transparência por parte dos provedores em relação às características e capacidades dos serviços oferecidos aos usuários.

Até aí, tudo bem. O problema aparece com as demais diretrizes que, de um modo ou de outro, abrem brechas para que o princípio original de neutralidade seja ‘contornado’ em situações específicas. Aqueles que sempre acreditaram na política do ‘we are not evil’ do Google, e na sua força para garantir a rede aberta e neutra, talvez devam começar a se preocupar, e fazer algo.

Google surpreende, a rede reage

A reação da rede ao anúncio conjunto é bem representada pelo post de Jeff Jarvis (‘Internet-Schminternet‘), que sinaliza a possibilidade de surgimento de duas internets diferentes: uma internet ‘normal’, e outra caracterizada por serviços premium, a Shminternet (algo a ver com o Eric?), que poderão ser precificados no estilo típico das teles.

O post do Ryan Siegel na Wired (‘Why google became a carrier humping net neutrality surrender-monkey‘) descreve bem a retirada estratégica do Google em seu plano de confrontar as teles em seu próprio mercado. A mudança de curso foi brusca e rápida: em janeiro deste ano o Google lançava o Nexus One, o primeiro smartphone desenhado especialmente para rodar o sistema operacional Android, e anunciava bombasticamente a sua venda direta pela web.

O plano óbvio do gigante das buscas era que as teles corressem para figurar no list-box ['escolha sua operadora'] do formulário web de compra do Gphone. Entretanto, 4 meses depois, apesar do Android seguir bombando mundo afora em equipamentos cada vez mais sofisticados lançados em campanhas milionárias bancadas pelas.. teles, a tão festejada e-loja que iria transformar o jeito de se adquirir um ‘telefone’ foi fechada. Enfim não se pode vencer todas, e na lógica do mercado, a barganha parece justa.

Mas o fato é que a empresa das letras coloridas, durante seus anos dourados, voluntariamente construiu para si mesma a imagem do paladino da rede, aquele que não iria transigir com qualquer ataque aos princípios de abertura e neutralidade da Internet, jamais. É fácil perceber que a reação da rede ao anúncio desta semana tem um ar de desencanto, como se o nosso herói preferido fosse flagrado em uma falta imperdoável. O post de David Weinberger (‘Notes from a disappointed fan boy‘) é um ótimo retrato do sentimento de traição compartilhado por muitos: ‘agora eu tenho que me preocupar com o fato do Google chegar em casa tão tarde, e com o perfume da Verizon em sua lapela’.

O novo discurso Googizon

Ao emitir esta semana um comunicado conjunto com a Verizon introduzindo o conceito de ‘gerenciamento de rede razoável’ (reasonable network management), o Google certamente supreendeu seus fãs mais leais. A EFF (Electronic Frontier Foundation), principal organização ativista pela liberdade da rede levanta a questão: tal gerenciamento ‘razoável’ por exemplo, permitiria o bloqueio de serviços como o BitTorrent? Boa pergunta..

Outra das 7 diretrizes apresentadas introduz o perturbador conceito de Serviços Online Adicionais (Additional Online Services), que ‘deve ser distinto em escopo e objetivos do serviço de acesso à Internet, mas que poderia fazer uso ou acessar conteúdos, aplicações e serviços da rede, e implementar priorização de tráfego'(!). Dá para enxergar a tal Schminternet..

Mas a coisa pega mesmo na diretriz que propõe “isentar provedores de banda larga sem fio (wireless) de cumprir o princípio de não-discriminação”, ou seja, as operadoras que oferecem acesso wireless não estarão obrigadas contemplar o princípio de neutralidade da rede. Desde o ano passado se especulava sobre a posição do Google nesta questão, e a declaração desta semana é uma guinada radical em relação a posicionamentos anteriores:

“Devido às características únicas, técnicas e operacionais das redes sem fio, e à natureza competitiva e ainda em desenvolvimento dos serviços wireless broadband, só o princípio da transparência se aplica neste momento.”

Entretanto, em abril eles diziam:

“Não obstante todas as diferenças técnicas entre as redes fixa e móvel que podem justificar a aplicação de exceções razoáveis para o gerenciamento de rede, numa base caso-a-caso”, o Google, então, insistiu, “os registros indicam  que, na ausência de uma norma eficaz e exequível para proteger os consumidores e a concorrência, todos os provedores de bandalarga de última milha têm os mesmos incentivos à discriminação. “

Como bem assinalado por Matheus Lasar no Ars Technica (‘A paper trail of betrayal: Google’s net neutrality collapse‘), entre abril e agosto, parece que muita coisa mudou para o Google. Parece agora fazer parte de outro clube. Em seu blog oficial demonstrou supresa frente à reação contrária da rede ao anúncio Googizon. Parece estar convencido de que ‘garantir a implementação de proteções mínimas é melhor do que não garantir nenhuma proteção’. Justifica a iniciativa dizendo que a questão da ‘neutralidade da rede’ se tornou um tema intratável pela classe política.

Susan Crawford no GigaOm (‘The FCC needs to do the hard thing, because its whats right) chama a atenção para a importância do papel do estado neste momento em que empresas demonstram a intenção de repartir entre si recursos estratégicos de interesse público como é o acesso à Internet. Como uma das principais especialistas no assunto, conclama as autoridades competentes à ação imediata para proteger os empresários, a inovação e os consumidores.

E você, o que tem a dizer?

No Brasil temos em curso o processo de construção do Programa Nacional de Banda Larga, que recentemente inaugurou o ‘Forum Brasil Conectado‘. A rede CulturaDigital.BR participa do processo de formulação participativa, e nesta sexta-feira (13/08) apresentou algumas observações para a sessão temática que irá tratar de ‘neutralidade da rede’ na próxima reunião do Fórum, nos dias 24, 25 e 26 de agosto em Brasília. Você também pode participar, inserindo comentários neste tema ou nos demais.

Gov 2.0 e FourSquare: o governo como plataforma

Tim O’Reilly é uma cara esperto. Considera-se empresário do ramo de ‘transferência de conhecimento’, mas é de fato um grande publisher de tecnologia, que também produz conferências técnicas de nível internacional. É atribuída a ele a origem do meme ‘Web 2.0′, que ele costuma traduzir como o cenário da ‘internet como plataforma’.

Recentemente O’Reilly lançou um livro chamado ‘Government as a Platform‘ [Governo como Plataforma], o qual está publicado na rede como texto em constante evolução – neste caso, o ‘livro como plataforma’ de colaboração.

O conceito de ‘governo como plataforma’ deriva das muitas lições aprendidas com o sucesso das plataformas digitais e especialmente da internet, e reafirma a importância dos padrões e protocolos abertos para potencializar a inovação e o crescimento distribuídos. A estratégia é focar no design da participação buscando soluções simples, mínimas, que possam evoluir com a colaboração direta dos interessados.


Fato é que há tempos ouvimos falar na sociedade da informação, mas parece que somente agora com a revolução dos smartphones começamos a vivenciar concretamente as possibilidades mais transformadoras desta admirável fusão dos ecossistemas analógico e digital. Estamos falando de novos modos e jeitos de viver o dia-a-dia plugado na rede através de dispositivos móveis, inaugurando práticas que se entranham em  nossa rotina e criam novas ‘culturas de uso’.

Recentemente me peguei enviando convites do FourSquare — a rede social móvel baseada em geo-localização — a amigos mais chegados. Creio que não fazia isto deste o tempo do lançamento do Orkut no Brasil, em 2004. Ao me dar conta do fato, e perguntar a mim mesmo o porquê do repentino entusiasmo spammer, indentifiquei a tendência digna de nota e destaque.

Com um aplicativo desses no smartphone é possível acessar (e fornecer) dicas sobre restaurantes, atrações locais, enfim, se informar em tempo real sobre o lugar onde você se encontra. Tudo isso com base na informação do dispositivo GPS. Para quem experimenta o aplicativo FourSquare em seu smartphone, e realiza a experiência de se relacionar com o local onde se está, munido de ‘informação privilegiada’, fica evidente a concretude de todo um universo de possibilidades inovadoras.

Mas o que tem o governo a ver o com aplicações como o FourSquare, e onde o GPS entra nisso?

O’Reilly recentemente em uma de suas palestras brincou dizendo que Ronald Reagan poderia ser o CEO do FourSquare. Isto porque foi ele quem, em 1983, se tornou o principal responsável pela liberação do uso civil do sistema de satélites GPS, que então constituíam propriedade privada da força aérea norte-americana.

Em nosso caso atual, não é a força aérea norte-americana que provê os dados de qual é o bom restaurante, ou a cerveja mais gelada da redondeza. É o FourSquare, iniciativa que ilustra o cenário de oportunidades para o setor privado desenvolver inovações sofisticadas sobre infraestrutura pública, criando novos serviços sobre recursos já desenvolvidos pelo governo. Este é o conceito do ‘governo como plataforma’.

Temos exemplos de plataformas geradas pelo setor privado, com diferentes modelos de funcionamento. A Apple construiu o iPhone, que é também uma plataforma, e hoje existem mais de 50 mil aplicativos desenvolvidos, dos quais a empresa fez apenas 20. O Google, por seu lado, vem consistentemente demonstrando o mundo de possibilidades do processamento de grande volume de dados de usuários. O’Reilly dedica um capítulo inteiro de seu livro ao que ele chama de ‘modelo de participação implícita’.

“Nós temos todos os dados que precisamos, gerado por exemplo pelas interações dos cidadãos com o sistema de saúde, que pode nos ajudar a compreender a melhor forma de alinhar custos e resultados. Para potencializar plenamente esse modelo é preciso ir além da transparência e, como o Google fez com o AdWords, começar a implementar ‘feedback data-driven loops‘ [ciclos contínuos de apuração guiados por dados] diretamente no sistema. Existem ferramentas do Google para estimar a eficácia da publicidade de cada palavra-chave disponíveis para os anunciantes, mas isto não é o mais importante. A verdadeira magia é que o Google usa todo o seu conhecimento sobre os dados para beneficiar diretamente os usuários fornecendo melhores resultados de pesquisa e anúncios mais relevantes.”
Lição 5: ‘Data Mining’ permite que você aproveite da participação Implícita


Exercitando o governo como plataforma na Cultura Digital

No evento que realizamos no mês passado, o ‘Simpósio Internacional de Políticas Públicas para Acervos Digitais‘, um dos mais acalorados foi o debate sobre o ‘Acordo Google Books‘. Sobre o tema vale conferir as posições do Prof. José de Oliveira Ascensão (Univ. de Lisboa), de Jean Claude-Guédon (Univ. de Montreal), e de Alexandre Pesserl (UFSC), registradas por ocasião do evento. De certa forma, o ‘Acordo’ é um bom exemplo de plataforma de interesse público, mas que se tornou possível graças à agilidade do Google em realizá-la antes dos governos perceberem seu papel diferenciado no cenário da sociedade da informação do século 21.

Eu já havia postado sobre o Acordo Google Books anteriormente, sublinhando a importância da reavaliação em nossa lei de direito autoral. Hoje temos a satisfação de participar do esforço em conceber e implementar a plataforma colaborativa que gerencia o processo aberto de consulta pública sobre a proposta de reforma da lei, e de disponibilizar o que desenvolvemos para quem se interessar em evoluir /utilizar.

Observando de perto a evolução do ecossistema da rede global, e refletindo sobre as limitações que os modelos do século 20 apresentam para o enfrentamento dos desafios da sociedade da informação, não é tão difícil formular cenários onde o governo pode atuar como plataforma. Aqui no CulturaDigital.BR temos chamado estas implementações de ‘plataformas que realizam políticas’. Faz sentido?

Democracia Open Source – Como o universo online está transformando a política offline

Achei por bem recuperar um post que publiquei no  ‘Ecologia Digital’ em 7 de abril de 2004, e achei pertinente republicar aqui porque estamos pensando em trazer o Douglas Rushkoff para o Seminário Internacional do #culturadigitalbr, em novembro.

Seria ótimo ter algum feedback de vocês quanto à idéia de trazer o Douglas. Tenho trocado idéia com ele propondo arranjos para viabilizar uma participação interativa com o público do #culturadigitalbr.  Idéias são bemvindas.

Recentemente o Douglas lançou o ‘Life Inc.’, que apresenta uma reflexão interessante sobre o papel da moeda centralizada na manutenção de modelos inadequados ao desenvolvimento da colaboração e do compartilhamento. Falaremos mais deste livro por aqui. Por agora, aí vai a visão do Douglas sobre a possibilidade de se abrir o código da democracia.

hyperball-computer-network-invented-by-philip-emeagwali-30007/04/2004

O site Demos publicou o ótimo “Open Source Democracy” de Douglas Rushkoff, e convida ao debate.

O autor destaca a ênfase na colaboração coletiva originária do movimento open source, que tem promovido com sucesso a inovação através do conhecimento compartilhado, e compara ao declínio da participação pública nos processos eleitorais tradicionais – que ainda são determinados pela influência da “velha mídia” e apresentam mínimas possibilidades de real interação.

A pergunta é: e se “abríssemos o código” de nossos sistemas democráticos para que pudessem melhor cumprir seus objetivos de participação inclusiva? A comunidade do software livre aprendeu que soluções emergem da interação e participação de muitos, e não de um planejamento central.

… nossa resposta renascentista para a imprensa é o computador e sua habilidade de agir em rede. Assim como a imprensa deu a todos o acesso à leitura, o computador e a Internet possibilita a todos o acesso à autoria. O primeiro Renascimento nos tirou da posição de recipientes passivos para intérpretes ativos. Nosso Renascimento atual nos tira do papel de intérprete para o papel de autor. Somos os criadores.

Enquanto programadores de jogos e não jogadores, criadores do testemunho e não crentes no testamento, começamos a acordar para o quanto da nossa realidade é uma fonte aberta e pronta para ser discutida. Aquilo que parecia um hardware impenetrável é na realidade software pronto para ser reprogramado. As histórias que usamos para entender o mundo parecem menos explicações e mais colaborações. Elas são grupos de regras, servem apenas para explicar os padrões históricos ou prever padrões futuros.
Open Source Democracy – Douglas Rushkoff

Em parceria com o Guilherme Barcellos, comecei a fazer uma tradução do texto e publiquei lá no Ecologia Digital.

Confira:  ‘Abrindo o Código da Democracia

O debate sobre ‘Direitos, Princípios e Valores’ para a rede

Este post tem a intenção de reunir informações sobre o debate acerca dos ‘direitos’ dos usuários na Internet. Tive a oportunidade de acompanhar algumas instâncias deste debate no âmbito internacional, e acredito que o momento é propício para que o tema ganhe maior visibilidade, principalmente no âmbito do fórum #culturadigitalbr.

O debate sobre a questão dos direitos na rede ganhou impulso significativo com a iniciativa da ‘Carta dos Direitos da Internet‘ (Internet Bill of Rights), protagonizada por Gilberto Gil, Richard Stallman e Lawerence Lessig, e por membros do parlamento italiano como Stefano Rodotà e Fiorello Cortiana, que foi o idealizador da campanha “Tunis Meu Amor”, por ocasião da Cúpula da Sociedade da Informação na Tunísia, em 2005. Ficou marcada nesta época a ‘jam session’ Stallman / Gil, primeiros ensaios da sintonia entre software e cultura livres.

Em função da representatividade das personalidades envolvidas, e / ou pela força de marketing emprestada da ‘Carta dos Direitos da Internet‘ (The Bill of Rights), a iniciativa da ‘Carta dos Direitos da Internet’ ganhou impulso e no ano seguinte emplacou como ‘Coalizão Dinâmica’ do Internet Governance Forum (IGF) de 2006, na Grécia.

Informal meeting for the session on the Internet Bill of Rights initiative: José Murilo (Brazilian Ministry of Culture), Carlos Affonso (FGV - Brazil), Max Senges (Open University of Catalonia & Committee for a Democratic United Nations, Spain/ Germany), Natasha Primo (National ICT Policy Advocacy Initiative, APC, South Africa) and Robert Guerra (Senior Program Officer, Global Internet Freedom, Freedom House, Canada)

Encontro informal para formulação do workshop do 'Internet Bill of Rights' @ iSumitt08, Sapporo - Japão: José Murilo, Carlos Affonso (FGV ), Max Senges (Open University of Catalonia & Committee for a Democratic UN, Spain/ Germany), Natasha Primo (National ICT Policy Advocacy Initiative, APC, South Africa) and Robert Guerra (Senior Program Officer, Global Internet Freedom, Freedom House, Canada)

Na minha avaliação, na mesma medida em que o título ajudou na visibilidade da iniciativa, atrapalhou a comunicação sobre o que se pretendia abordar. Tive a oportunidade de acompanhar os debates da coalizão em outros eventos, em Roma, no IGF do Rio e no Japão (foto), e em todas estas oportunidades muito tempo se perdia no esclarecimento dos reais ojetivos da iniciativa, e de como alcançá-los. Sempre foi necessário debates para se concluir que o produto não poderia ser  um documento, uma carta (‘bill’).

Recentemente aconteceu a providencial mudança na dinâmica da coalizão :-), que se transformou em ‘Internet Rights and Principles‘, e que passou a contar com a coordenação de Max Senges. A partir deste momento a mobilização se torna mais efetiva, e recentemente foi lançado o texto ‘Values, principles and rights in internet governance‘, formulado pelo Max Senges e pela Lisa Horner, e que deve ser referência para a programação da coalizão na edição do IGF no Egito, em novembro. O texto documenta os caminhos percorridos pela reflexão em torno de uma ‘Carta dos Direitos da Internet’, e apresenta novos elementos para se pensar a governança da rede levando em conta sua estrutura multi-camada. Tem o mérito também de propor uma reflexão sobre valores e princípios, e como estes se relacionam com os direitos.

O debate sobre direitos na rede é importante especialmente por ser o contraponto efetivo à propostas como a da ‘lei azeredo’. Temos enfatizado que o debate sobre usos e condutas na internet deve preceder o estabelecimento de tutela penal específica para o tema, mas é importante que os ‘stakeholders’ (os interessados com poder de mobilização) se articulem para construir propostas válidas.

A iniciativa do CGI.br em publicar ‘Princípios para Governança e Uso da Internet no Brasil‘ em julho último foi providencial, e introduz balizas importantes para o debate. O Nupef realizou recentemente evento preparatório para o IGF, e em parceria com o CTS da FGV apresentou alguns elementos interessantes para o debate. No governo, além da iniciativa do MinC em introduzir o tema no Fórum #culturadigitalbr, também o Ministério da Justiça e a Secretaria de Assuntos Estratégicos da Presidência estão desenvolvendo estudos para a construção de um marco civil para o ambiente digital.

Nossa proposta é agregar e documentar as iniciativas no tema de forma a qualificar o debate. Os interessados estão convidados a deixar comentários e referências, e seguir na conversa.