REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES...

154
UNIVERSIDADE DE SÃO PAULO FACULDADE DE DIREITO SEIITI ARATA JÚNIOR REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES TECNOLÓGICOS NA GOVERNANÇA DA INTERNET Dissertação apresentada ao Departamento de Direito Internacional da Faculdade de Direito da Universidade de São Paulo para obtenção do título de mestre. Orientadores: Prof. Titular Guido Fernando Silva Soares (in memoriam) e Prof. Doutor Umberto Celli Júnior São Paulo 2006

Transcript of REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES...

UNIVERSIDADE DE SÃO PAULO FACULDADE DE DIREITO

SEIITI ARATA JÚNIOR

REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES

TECNOLÓGICOS NA GOVERNANÇA DA INTERNET

Dissertação apresentada ao Departamento de Direito Internacional da Faculdade de Direito da Universidade de São Paulo para obtenção do título de mestre.

Orientadores: Prof. Titular Guido Fernando Silva Soares (in memoriam) e Prof. Doutor Umberto Celli Júnior

São Paulo

2006

SEIITI ARATA JÚNIOR

REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES TECNOLÓGICOS NA GOVERNANÇA DA INTERNET

Dissertação apresentada ao Departamento de Direito Internacional da Faculdade de Direito da Universidade de São Paulo para obtenção do título de mestre.

Orientadores: Prof. Titular Guido Fernando Silva Soares (in memoriam) e Prof. Doutor Umberto Celli Júnior

São Paulo março/ 2006

RESUMO

A Internet surgiu como um pequeno experimento militar e científico nos Estados Unidos da América. A técnica utilizada para a transmissão de dados foi logo adotada por todo o mundo, a ponto de hoje ser considerada um recurso global em documentos resultantes de uma conferência mundial da ONU, a Cúpula Mundial sobre a Sociedade da Informação. A evolução e expansão da Internet, porém, não se deu de forma simples e sem disputas. Ao contrário, diversos interesses comerciais e politicos marcaram sua história, em contínua competição. Ao final, prevaleceram os interesses daqueles que tinham maior poder técnico, político ou econômico. Os atuais paradigmas de arquitetura de rede são um legado desse processo histórico. A definição de padrões tecnológicos revela uma dimensão poderosa de regulação e, assim, considerados os princípios enumerados pela Cúpula Mundial sobre a Sociedade da Informação, é necessária a implementação de estruturas de governança claras que permitam uma colaboração entre as diversas partes interessadas, de forma a legitimar as decisões a respeito do futuro da arquitetura da rede.

Palavras-chaves: Internet, governança da Internet, definição de

padrões, Cúpula Mundial sobre a Sociedade da Informação.

ABSTRACT

The Internet has developed from a small military and scientific experiment in the United

States of America. The technique adopted for the data transmission was soon implemented

worldwide, and has recently received the recognition of its status as a global facility

available to the public by a United Nations conference, the World Summit on Information

Society. The evolution and expansion of the Internet, though, has not proceeded smoothly

and without disputes. By the contrary, several commercial and political interests have

marked the Internet's history, in a continuing competition. At the end of the day, the

interests of those embedded with political, technical or economic power have prevailed.

The current paradigms of network architecture are a legacy from such historical period.

The definition of technical standards reveals a powerful regulatory dimension and, thus,

considering the principles from the World Summit on Information Society, it is necessary

to implement clear governance structures to enable collaboration among different

stakeholders, in order to legitimate decisions regarding the future of the net architecture.

Key words: Internet, Internet governance, standards setting, World

Summit on Information Society.

LISTAS DE ABREVIATURAS E SIGLAS

ARPA Advanced Research Projects Agency

BBN Bolt, Beranek and Newman

CCITT Consultative Committee on International Telegraphy and Telephony

ccTLD country code Top Level Domain

CMSI Cúpula Mundial sobre a Sociedade da Informação

CNRI Corporation for National Research Initiatives

DCA Defense Communications Agency

DNS Domain Name System

DoC Department of Commerce

DRM Digital Rights Management

FCC Federal Communications Commission

GAC Government Advisory Committee

GTGI Grupo de Trabalho sobre a Governança da Internet

gTLD generic Top Level Domain

IAHC Internet ad hoc Committee

IAB Internet Activities Board

IBM International Business Machines

IAHC gTLD

MoU

Internet ad hoc Committee generic Top Level Domain Memorandum of

Understanding

IANA Internet Assigned Numbers Authority

ICANN Internet Corporation for Assigned Names and Numbers

ICCB Internet Configuration Control Board

IETF Internet Engineering Task Force

IGF Internet Governance Forum

IESG Internet Engineering Steering Group

IMPs Interface Message Processors

ISOC Internet Society

ISP Internet Service Provider

MIT Massachusetts Institute of Technology

NGN Next Generation Networking

NIC Network Information Center

NCP Network Control Protocol

NSI Network Solutions, Inc.

NSF National Science Foundation

OSI Open Systems Interconnection

OMPI Organização Mundial da Propriedade Intelectual.

OMC Organização Mundial do Comércio

RFC Request for Comments

SNA Systems Network Architecture

TCP/IP Transmission Control Protocol / Internet Protocol

TCTS Trans Canada Telephone System

TIC Tecnologias de Informação e Comunicação

TLD Top Level Domain

WGIG Working Group on Internet Governance

UIT União Internacional de Telecomunicações

TEIF Transferência Internacional de Fundos

ISO International Standards Organization

WSIS World Summit on Information Society

VoIP Voice over IP

QoS Quality of Service

SUMÁRIO

1. INTRODUÇÃO 1

1.1. Justificativa do tema 6

1.2. Localização do problema 7

1.3. Objetivos pretendidos 10

1.4. Metodologia de trabalho 10

1.5. Estrutura 12

2. A REGULAÇÃO PELA ARQUITETURA 14

2.1. Internet: um sistema artificial 14

2.2. Críticas às visões neutras e unilaterais em relação à tecnologia 17

2.3. Regulação a priori e a posteriori 18

2.4. Tridimensionalidade do Direito 19

2.5. A força do código na regulação pela arquitetura 21

2.6. A possibilidade de controle 24

2.7. Derrubando o mito do ciberespaço 25

2.8. Conclusão deste capítulo 27

3. DINÂMICA 28

3.1. Definição de Internet 29

3.1.1. Aplicações 31

3.2. Breve histórico da Internet 32

3.3. O vetor militar: resistência, flexibilidade e alta performance 33

3.4. O vetor da comunidade acadêmica de ciências da computação 35

3.5. Produtores e usuários 37

3.6. O surgimento do e-mail 38

3.7. Meritocracia: abertura, informalidade, descentralização e rough consensus and running code

39

3.8. O vetor comercial 42

3.9. O projeto de rede fim-a-fim (end-to-end network design) 43

3.10. Os conceitos originais de rede 44

3.11. A chegada da Defense Communications Agency e a transição para o Transmission Control Protocol/ Internet Protocol (TCP/ IP)

46

3.12. Conclusão deste capítulo 48

4. COMPETIÇÃO: MODELO TELECOM V. MODELO INTERNET 50

4.1. Competição na definição de padrões (standards) 51

4.2. Definição internacional de padrões formais públicos 53

4.3. Recomendação X.25 e a competição entre a Trans-Canada Telephone System (TCTS) e a International Business Machines (IBM)

55

4.4. Disputa entre X.25 e o Transmission Control Protocol/ Internet Protocol (TCP/ IP)

57

4.5. Open Systems Interconnection 59

4.5.1. Conceito de camadas 61

4.6. Conclusão desde capítulo 65

5. INTERNET CORPORATION FOR ASSIGNED NAMES AND NUMBERS (ICANN): NOMES E NÚMEROS

68

5.1. Nomes e números 68

5.2. O sistema de Nomes de Domínio (Domain Name System – DNS) 69

5.3. Privatização e os temas de gerenciamento 70

5.4. Jon Postel e a Internet Assigned Numbers Authority (IANA) 71

5.5. Network Solutions Inc e a escassez de nomes de domínio 73

5.6. Internet ad hoc Committee (IAHC) 74

5.7. Internet Corporation for Assigned Names and Numbers (ICANN) 75

5.8. A Cúpula Mundial sobre a Sociedade da Informação - CMSI 80

5.8.1. A CMSI e a governança da Internet 81

5.8.2. As críticas da CMSI 83

5.8.3. Primeira fase da CMSI: Genebra, 2003 85

5.8.3.1. Declaração de Princípios 86

5.8.3.2. Plano de Ação 86

5.8.4. O Relatório do Grupo de Trabalho sobre a Governança da Internet - GTGI

87

5.8.5 Um marco positivo na governança da Internet 88

5.9. Conclusão deste capítulo 89

6. COLABORAÇÃO: GOVERNANÇA 91

6.1. Definição de “ governança” 91

6.2. Soft power, hard power e a soft law e hard law 93

6.3. Foucault e o poder 97

6.4. Governança da Internet 99

6.4.1. Definição de padrões tecnológicos 100

6.4.2. Alocação e gerenciamento de recursos 101

6.4.3. Formulação e execução de políticas e a resolução de disputas 102

6.5. Segunda fase da CMSI: Tunis, 2005 103

6.6. Conclusão deste capítulo 105

7. COMPETIÇÃO E COLABORAÇÃO: PRINCÍPIO FIM A FIM 107

7.1. Internet Engineering Task Force - IETF 108

7.2. Retomando a análise do princípio fim a fim 110

7.3. As possibilidades de redes inteligentes 113

7.4. Papel dos provedores de serviços (ISPs) na mudança de controle 114

7.5. O debate sobre o princípio fim a fim na CMSI 117

7.6. Legitimação na tomada de decisões 121

7.7. Conclusões deste capítulo 121

8. CONCLUSÕES FINAIS 123

REFERÊNCIAS BIBLIOGRÁFICAS

BIBLIOGRAFIA

1. INTRODUÇÃO

É desnecessário dedicar páginas desta dissertação apontando para a

revolução trazida pelas Tecnologias de Informação e Comunicação – TICs, em especial a

Internet. São inúmeros os exemplos de facilidades ampliadas pela Internet1, a ponto de ser

o seu acesso um tema de relevância global discutido recentemente por uma Conferência

das Nações Unidas, a Cúpula Mundial sobre a Sociedade da Informação – CMSI2.

Quem define como a Internet funciona? A resposta não é simples e faz parte

de um tema maior que, nos últimos anos, vem se consolidando sob a expressão

“governança da Internet”. Diante das diferentes definições de governança da Internet

propostas nos últimos anos, um Grupo de Trabalho especificamente sobre o tema foi

constituído em 2004 pelo Secretário Geral das Nações Unidas, o Grupo de Trabalho sobre

a Governança da Internet – GTGI (Working Group on Internet Governance – WGIG)3.

A definição das características essenciais da Internet é dinâmica. A

configuração da Internet mudou muito nos seus poucos anos de existência e tem sido

marcada por alta inovação na geração de conhecimento e aplicações. Entretanto, uma

influente corrente4 de professores de Direito aplicado à tecnologia defende que uma

característica essencial no estímulo à inovação está ameaçada. Esta característica é a

arquitetura fim-a-fim (end-to-end), que será analisada com detalhes nos Capítulos 3 e 7 da

dissertação.

Basicamente, o princípio fim-a-fim defende que a rede de comunicações

deve ser simples, apenas com a função de transporte de dados, sem realizar qualquer tipo

de diferenciação no tratamento das informações que passam por ela. Isso implica qualquer 1 Dentre os juristas que apresentam uma visão mais holística sobre a inovação estimulada pela Internet, vide

Jonathan Zittrain, The Generative Internet, a ser publicado na Harvard Law Review, 2006. Versão preliminar do texto disponível na Internet.

2 Para informações sobre a Cúpula Mundial sobre a Sociedade da Informação, conferência fundamental para a discussão dos temas desta dissertação, o web site da UIT- União Internacional de Telecomunicações é o repositório oficial. Disponível em: <http://www.itu.int/wsis/>. Acesso em: 16.01.2006.

3 Os resultados do GTGI estão publicados em seu web site. Disponível em: <http://www.wgig.org>. Acesso em 16.01.2006.

4 A corrente doutrinária seguida pela dissertação é liderada por Lawrence Lessig, Jonathan Zittrain, Yochai Benkler, Michael Geist, Julie Cohen, entre outros mencionados oportunamente.

2

aplicação poder utilizar a Internet sem necessidade de aprovação ou ser condizente com os

interesses corporativos predominantes. As forças relacionadas à supressão do princípio

fim-a-fim tendem a reduzir o potencial de criatividade e inovação que inicialmente

marcaram a Internet, concentrando o controle de desenvolvimento da rede nas mãos de

poucos participantes.

Em que o estudo sobre um princípio de arquitetura de rede na governança

da Internet poderia contribuir para o saber jurídico? Não seria matéria para outras

disciplinas como a Economia, Engenharia, Ciências de Computação ou, quando muito,

Ciência Política e Sociologia?

A possibilidade de desdém quanto ao papel do Direito é um engano sobre o

qual o Marotta Rangel apud Martins e Babuy (1998, p.273) expressou sua opinião nos

seguintes termos:

O papel do Direito é importante em relação a todos os processos. Importante como matéria do processo; como valor e como constelação de valores que iluminam o mesmo processo. A globalização transcende o ordenamento interno de cada Estado e só tem sentido se for dinamizada e conduzida pelo Direito Internacional.

[...]

Na verdade, tradicionalmente, os sociólogos e historiadores costumam ter, infelizmente, uma visão depreciativa do Direito, do seu papel na sociedade. Não levam em conta que o Direito se caracteriza não apenas pela sua dimensão normativa, senão também pela sua dimensão factual e valorativa.

Via de regra há um reducionismo na posição da Ciência Política, da Sociologia, que leva a entender o Direito apenas como um complexo de regras, quando na verdade essas regras refletem uma realidade social e política, não apenas como um espelho dessa realidade, senão também como guia orientador das transformações da mesma sociedade. Esquecem também que o Direito é valor, inspirador, portanto, do comportamento de homens, de sociedades e de governos.

No curso de minha experiência tenho visto que, infelizmente, essa visão continua a existir.

Todavia, Marotta Rangel (apud Martins e Barbuy) apresenta um

contraponto: esse distanciamento das disciplinas é também objeto de um movimento de

integração, ilustrando essa afirmação com o caso da nova perspectiva da Ciência Política,

que reconhece cada vez mais o fundamental papel do Direito. Em tom otimista, sintetiza

apontando que “(m)esmo na Faculdade de Direito, em nossa Universidade, o diálogo entre

cientistas políticos, sociólogos e juristas é cada vez maior”.

3

Seguindo a positiva tendência apontada por Marotta Rangel de integração

harmônica, a qual não apenas deve ser conduzida entre as ciências humanas mas também

com os aspectos humanos de ciências exatas como as Ciências de Computação5, a presente

pesquisa identificará o papel do Direito na Sociedade da Informação. Em particular, é

necessário identificar a forma mais adequada de aplicação do Direito na elaboração de

políticas públicas e definição de padrões tecnológicos que atendam ao interesse público no

futuro da Internet.

Para tanto, o desenvolvimento dessa proposta requer coesão estrutural.

Assim leciona sobre a função da dogmática analítica Ferraz Júnior (1994, p 253):

Nas sociedades desenvolvidas e complexas, o sistema jurídico se constitui como um sistema diferenciado, isto é, com outros sistemas sociais (político, religioso, econômico etc.) relações de intercâmbio de informações. O sistema jurídico é, assim, um sistema autônomo, isto é, um conjunto de elementos e relações capaz de impedir que um evento em qualquer dos outros sistemas seja necessariamente um evento dentro dele, ao regular o que deve e o que não deve ser jurisdicizado e, sendo jurisdicizado (ou seja, tornando-se um evento dentro do sistema), o que deve ser lícito e ilícito. Este intercâmbio confere, porém, ao sistema uma grande variabilidade de eventos e situações que, para ser dominada racionalmente exige unidade. É aí que entra a dogmática analítica com seus conceitos sistematizadores e sua função regulativa.

Essa necessidade de definição do que deve ou não deve ser jurisdicizado a

fim de evitar a ilegítima sobreposição de um sistema autônomo (como o sistema

tecnológico) ao sistema jurídico é tarefa que exige o entendimento de como essa

dominação pode ocorrer.

Ao fenômeno de produção de efeitos jurídicos em função de intercâmbio de

eventos originados em sistema tecnológico chamamos de “regulação pela arquitetura”. A

dissertação tratará da Internet e suas aplicações como objeto de análise em si e também

como forças externas ao sistema jurídico produtoras de efeitos regulatórios. O raciocínio e

argumentação da dissertação serão apresentados dentro de uma moldura conexa com a

Teoria Geral do Direito no contexto do Direito Internacional Público.

5 No exterior, são comuns os cursos jurídicos que possuem centros de pesquisa que integram tais disciplinas,

como o Berkman Center for Internet and Society da Harvard Law School, disponível em: <http://cyber.law.harvard.edu/home/>, o Stanford Law School Center for Internet and Society, disponível em: <http://cyberlaw.stanford.edu/>, o Oxford Internet Institute da University of Oxford, disponível em: <http://www.oii.ox.ac.uk/>, entre outros.

4

Para tal abordagem, uma lição pode ser tirada de constante queixa que vem

se transformando em lugar-comum: conforme as relações sociais são aceleradas em função

da tecnologia, maiores são as perdas causadas pela demora na produção de normas que

sejam adequadas a tais transformações. Ao mesmo tempo em que essa lamúria é

compreensível, por outro lado, ela revela um anacronismo que falha na percepção da

dimensão mais atual do Direito, que não consiste apenas em fornecer respostas

posteriormente a estímulos dos fatos, mas inclui também uma atitude pró-ativa na busca do

progresso.

Afinal, o Direito não mais representa somente um instrumento de disciplina

social e, diferentemente do passado, não visa somente a garantir a segurança, liberdade e

patrimônio do homem. Hoje, sua meta ultrapassa essa dimensão, devendo também

promover o bem comum, o que implica utilizar-se de sua técnica para alcançar justiça,

segurança, bem estar e progresso. Esse Direito da atualidade é um fator decisivo para o

avanço social, o desenvolvimento da ciência, da tecnologia, da produção das riquezas, o

progresso das comunicações, a elevação do nível cultural. O Direito deve estimular

ambientes propícios para a consecução de tais objetivos e reprimir iniciativas que

impliquem em obstáculos desproporcionais a esse bem comum.

Por tudo isso, no contexto dos debates de coordenação de atividades que

implicam regulação da Internet que vêm construindo o conceito de “governança da

Internet”, é necessário determinar como definir padrões tecnológicos que tenham efeitos

que devam ser jurisdicizados. Como caso de estudo, escolhemos um paradigma

tecnológico: o princípio fim-a-fim da Internet, que tem sido entendido por especialistas

como um elemento que estimula o bem do homem.

Em uma rede de escopo global, decisões de padronização devem ser

tomadas em harmonia com o direito internacional, que cada vez mais integra os

mecanismos de governança da Internet (KURBALIJA, 2005, p.105). Nesse processo, será

observada a crescente importância da soft law para alcançar compromissos comuns. O

próprio direito internacional encontra-se em acelerada transformação, buscando adequar-se

à nova dinâmica das relações internacionais. Atualmente, uma atenção internacional está

voltada para as discussões sobre governança global, a respeito da qual os governos são

confrontados com outras partes interessadas que solicitam ser ouvidas e participar dos

processos de tomadas de decisão.

Curiosamente, no caso da governança da Internet, o caminho parece inverso.

5

No caso da governança da Internet, os governos é que procuram obter uma voz na decisão

da manutenção e também do futuro da rede, que se desenvolveu fora de uma moldura

clássica intergovernamental.

A experiência do Grupo de Trabalho sobre a Governança da Internet -

GTGI, oportunamente analisado, pode trazer importantes lições para o direito

internacional, mais especificamente quanto à diplomacia multistakeholder, que envolve

múltiplas partes interessadas, principalmente no contexto em que há discussões sobre uma

necessária reforma do sistema das Nações Unidas e em que novas formas de governança

global estão em discussão na agenda da cooperação internacional.

O GTGI incluía representantes de governos, do setor privado e da sociedade

civil atuando em sua capacidade pessoal e participando em pé de igualdade nos debates.

Ao fim, seus vários perfis e interações positivas deram força ao principal resultado

buscado: o Relatório do GTGI (GTGI, 2005).

Para Markus Kummer (Kummer, 2005, p.5), o principal legado do GTGI é

que o processo criado foi inovador e provou ser um experimento de sucesso na cooperação

multistakeholder. O GTGI teve êxito em criar um espaço para um diálogo de políticas

sobre governança da Internet em um clima de confiança entre todas as partes interessadas.

É esperado que tal legado possa ser traduzido em uma abordagem mais cooperativa para a

governança da Internet além da fase de Tunis da CMSI, envolvendo todas as partes

interessadas em nível de igualdade. Kummer (2005, p.5) acredita que a experiência do

GTGI revelou uma necessidade de um diálogo continuado e nesse sentido foi início de um

processo que continuará. Porém, ainda é aguardado saber se a experiência do GTGI poderá

ser usada como referência em outros fóruns fora do âmbito da governança da Internet.

A governança da Internet mostra-se assim um exemplo rico de temas

relacionados ao processo decisório internacional em seu sentido mais amplo e

contemporâneo, em via dupla: ao mesmo tempo em que o direito a influencia, os resultados

do processo referente à governança da Internet contribuem com novos mecanismos para o

direito internacional.

6

1.1. Justificativa do tema

Os efeitos trazidos pela tecnologia não devem se sobrepor ao sistema

jurídico. O direito internacional deve controlar a regulação pela arquitetura sob risco de

domínio ilegítimo de interesses particulares sobre a Sociedade da Informação.

Motivados por uma Internet que proporcione maior segurança e controle

sobre infrações à propriedade intelectual, entre outros, iniciativas de alguns atores buscam

modificar a tecnologia de modo a diminuir o potencial de criação e liberdade dos usuários,

que ficarão limitados apenas para os fins previamente autorizados pelos fabricantes e

gerentes de rede.

Atualmente, não há mecanismos de governança adequados para a discussão

e deliberação a respeito dos efeitos regulatórios de determinados padrões, protocolos e

modelos tecnológicos. Pela ausência institucional de tal mecanismo, o que acontece é que

muitas vezes um determinado padrão de facto domina o mercado permeando os usuários

da tecnologia com os valores nele embutidos. No caso do princípio fim-a-fim, será

examinado que, apesar do apoio de diversas partes interessadas (stakeholders), não houve

amparo expresso na documentação resultante da Cúpula Mundial sobre a Sociedade da

Informação. O recém-criado Internet Governance Forum – IGF6 pode ser o mecanismo

mais adequado para a discussão sobre demais assuntos relacionados à definição de

padrões, visto que os existentes órgãos de padronização, como a Internet Engineering Task

Force – IETF, carecem de uma adequada estrutura de governança.

Apesar do progresso alcançado com a aprovação do IGF, os principais

debates têm se concentrado em uma função relacionada ao endereçamento dos recursos da

rede, em grande parte centralizada na Internet Corporation for Assigned Names and

Numbers - ICANN. Muitos outros temas ainda devem ganhar maior publicidade.

Defendemos que um desses temas é a definição de padrões tecnológicos, que possibilita a

regulação pela arquitetura.

A escolha entre os padrões tecnológicos historicamente é um assunto que

não tem despertado significativa atenção jurídica e assim deixada na mão do mercado.

6 Até o presente, o Internet Governance Forum – IGF ainda não foi formalizado e é esperado que sua primeira reunião ocorra em 2006 em Atenas, Grécia.

7

Entretanto, no caso da Internet em alguns padrões essenciais o mero

mercado não é suficiente para evitar abusos, pois se um protocolo essencial for

implementado, o usuário terá dificuldades em obter acesso a outras opções.

Não foi identificado, até o presente momento, qualquer estudo científico

sobre a governança da Internet no Brasil. Os poucos comentários nacionais permanecem na

forma de artigos ocasionais (FALCÃO, 2005; AFONSO, 2005, por exemplo) e sucinta

cobertura jornalística7. Essa lacuna expõe a sociedade a uma incerteza regulatória que pode

culminar em apropriação de recursos por agentes mais articulados que aproveitam a

precária governança, inclusive desenvolvendo tecnologias em afronta a certos valores,

causando perplexidades.

1.2 Localização do problema

É necessário um importante esclarecimento. Existem diversos assuntos

jurídicos ligados à Internet, como, por exemplo, a questão das mensagens não solicitadas

(spam), contratos realizados por meios eletrônicos, direitos de propriedade intelectual,

privacidade, liberdade de expressão, responsabilidade civil, crimes digitais, relações de

consumo, tributação do comércio eletrônico, perícia digital, entre outros, que não serão

abordados na dissertação pois, apesar de seu objeto tocar áreas relacionadas à governança

da Internet, com ela não se confunde.

A governança da Internet é um tema menos perceptível e ainda em

construção. Durante o processo da Cúpula Mundial sobre a Sociedade da Informação –

CMSI, diversas opiniões conflitantes a respeito do que seria a governança da Internet

foram apresentadas. Enquanto para alguns a governança da Internet seria estritamente

ligada ao gerenciamento e alocação de recursos como endereços IP e nomes de domínio e à

7 Cf., entre outros, FOLHA DE SÃO PAULO, Cúpula termina com mais de 200 acordos, Folha de São Paulo, São Paulo, 19 nov. 2005, Dinheiro, p.1, disponível em: <http://www1.folha.uol.com.br/fsp/dinheiro/fi1911200538.htm>. Acesso em 16.01.2006. FOLHA DE SÃO PAULO. A Gestão da Internet, Folha de São Paulo, São Paulo, 31 out. 2005, Editorial, p.2, disponível em: <http://www1.folha.uol.com.br/fsp/opiniao/fz3110200503.htm>. Acesso em 16.01.2006. ROSA, J.L.; CESAR, R. Modelo de gestão da web é posto em xeque, Valor Econômico, São Paulo, 27 out. 2005, Empresas e Tecnologia, p.3, disponível em: <http://www.valoronline.com.br/veconomico/caderno/?show=index&n=&mat=3354438&edicao=1213>. Acesso em 16.01.2006.

8

estrutura do sistema da Internet Corporation for Assigned Names and Numbers – ICANN

(visão estreita de governança da Internet, ou narrow Internet governance), para outros a

governança da Internet compreenderia todos os assuntos regulatórios relacionados à

Internet (visão ampla da governança da Internet ou broad Internet governance).

Pela impossibilidade de consenso, foi solicitado ao Secretário Geral das

Nações Unidas o estabelecimento de um Grupo de Trabalho sobre a Governança da

Internet – GTGI, cujo mandato incluiria, entre outras atividades, a apresentação de uma

definição de trabalho sobre o que seria a governança da Internet, que ao final tendeu mais

para a visão ampla da governança da Internet, libertando-se do campo exclusivamente

relacionado aos nomes e números gerenciados pela ICANN.

Da mesma maneira que, para a finalidade de delimitação do tema, não

trataremos dos assuntos jurídicos ligados à Internet, também é necessário realizar uma

delimitação dentro do grande campo da definição de trabalho de governança da Internet

apresentada pelo GTGI. Os temas relacionados ao sistema de nomes e números são

altamente complexos, visto que muitas vezes as soluções jurídicas que podem ser

apresentadas se tornam inócuas diante de limitações ou possibilidades tecnológicas. Um

exemplo é o debate sobre um excesso de poder detido pelos Estados Unidos da América

pelo fato de deter, em seu território, a maioria dos treze servidores raiz do sistema de

nomes de domínio. A partir do desenvolvimento da tecnologia anycast, que replica o

conteúdo destes servidores por diversos computadores espalhados pelo mundo, tal

questionamento deixa de ser uma preocupação política, visto ter sido solucionado

tecnicamente. A solução no plano fático torna assim desnecessária a intervenção através do

plano normativo.

Semelhantemente, ainda com relação ao sistema de nomes e números, os

debates sobre o controle da raiz são altamente dinâmicos com o desenvolvimento de

tecnologias de localização de dados, as quais não pretendemos enfrentar. A título

ilustrativo, foi divulgada na imprensa geral8 a notícia de que a China havia modificado o

sistema de nomes de domínio, adicionando uma raiz alternativa relacionada aos domínios

sob o country code Top Level Domain - ccTLD “.cn”. Entretanto, as alegações de que tal

iniciativa poderia ocasionar uma fragmentação no sistema de nomes de domínio foram

exageradas, por não afetar a localização de domínios fora do ccTLD “.cn” conforme

8 Vide, entre outras fontes, http://www.boston.com/news/world/asia/articles/2006/03/01/china_creates_own_net_domains/

9

avaliação de Milton Mueller, em mensagem enviada ao grupo de discussão do Internet

Governance Caucus em 28.02.2006.

As discussões de governança estreita da Internet foram centradas na

supervisão política da ICANN, que, para muitos, não tinha autoridade ou legitimidade

internacional para atuar com impactos regulatórios a todos os usuários globais da Internet.

As formas possíveis de supervisão política da ICANN são inúmeras e somente o GTGI, em

seu Relatório divulgado em junho de 2005, apresentou quatro diferentes propostas. A

presente dissertação, apesar de reconhecer o mérito do debate teórico a respeito das

possíveis alternativas que o Direito Internacional poderia apresentar para resolver de forma

harmônica a supervisão (ou mesmo substituição) da ICANN, não enfrentará tal tema.

É necessário justificar tal abordagem. Inicialmente, como já argumentado, a

questão dos nomes e números envolve detalhes extremamente técnicos sujeitos à rápida

mudança, o que poderia tornar o resultado da pesquisa prematuramente obsoleto. Em

segundo lugar, a literatura internacional conta com estudos teóricos relacionados ao tema

que não foram colocados à prática por se tratar de decisão que competirá, em última

instância, ao governo norte-americano, que acenou que não pretende dar continuidade à

independência da ICANN em curto prazo. Finalmente, a questão da supervisão política da

ICANN por si seria objeto de uma pesquisa individual9. Como, porém, as críticas do

sistema administrado pela ICANN ganharam grande destaque internacional, a dissertação

fará breve comentário sobre sua controvérsia e de como a CMSI não logrou êxito em obter

comprometimento do governo norte-americano em proceder às mudanças desejadas por

diversos participantes da CMSI.

Assim, avançando além do campo da governança estreita da Internet, no

Relatório apresentado pelo Grupo de Trabalho sobre a Governança da Internet, um aspecto

apresentado é a definição de padrões tecnológicos, que deve contar com a participação de

todas as partes interessadas (stakeholders).

A definição de padrões tecnológicos implica efeitos regulatórios e está

sujeita à influência de atores que pretendam impor padrões que lhes beneficiem, mesmo se

contra o interesse público.

9 A respeito, é sugerida a consulta à obra de Mueller (2004), que cuida exclusivamente do assunto. Posteriores contribuições sobre o tema foram publicadas no web site do Internet Governance Project.

10

A dissertação, em resumo, se limitará à investigação das justificativas e das

técnicas para a adequação da definição de padrões tecnológicos dentro da governança da

Internet de modo a atender os interesses e princípios consagrados na CMSI.

1.3.Objetivos pretendidos

Identificar a forma mais adequada de aplicação do Direito na definição de

padrões tecnológicos que atendam ao interesse público no futuro da Internet. Em especial,

examinar a importância da soft law para permitir a participação entre múltiplas partes

interessadas nos processos diplomáticos e alcançar compromissos comuns que, embora não

vinculantes, apresentam eficácia.

Ao definir como os padrões tecnológicos devam ser jurisdicizados,

escolhemos como caso de estudo um paradigma tecnológico: o princípio fim-a-fim da

Internet.

Examinar os resultados da CMSI e do GTGI e como o IGF deve ser usado

para maior legitimidade na decisão a respeito da definição de padrões tecnológicos.

1.4.Metodologia de trabalho

Para lidar com a complexidade e evitar as armadilhas da

interdisciplinaridade que podem desviar o foco do estudo, outras disciplinas somente serão

usadas conforme necessário para a justificação de afirmações e conclusões fundamentais

ou para auxílio na leitura, assegurando contextualização. Quando o desdobramento puder

implicar em direções distintas da presente proposta, as informações por onde o leitor

poderá iniciar suas pesquisas complementares e paralelas serão indicadas em notas de

rodapé.

11

Para entender o estado atual da governança da Internet, é indispensável uma

descrição histórica da evolução da Internet, em especial no tocante ao surgimento e

evolução da ICANN. Como a discussão relacionada à alocação de recursos de nomes e

números da ICANN escapa do foco da dissertação, alguns detalhes serão omitidos ou

trazidos de forma sucinta quando dispensáveis para o exame jurídico da matéria. Notas de

rodapé indicarão bibliografia complementar para a obtenção de maiores detalhes.

Observa-se que a definição da governança da Internet é altamente

complexa, tanto técnica como historicamente, sendo que, somente em 2003, foi

formalizada a necessidade de composição de um grupo de especialistas para a análise

formal do assunto, quando a Internet já havia alcançado uma expansão a ponto de trazer

uma conferência das Nações Unidas, a CMSI, saindo então da esfera restrita à academia e

grupo de cientistas para abraçar a sociedade global. Nessa análise, serão identificados quais

os diferentes tipos de governança, quais participantes estão envolvidos e quais os vetores

de governança. Destes, o Direito exerce papel fundamental.

Como muitos dos termos são jargão de informática, em sua maioria serão

mantidos no original, com tradução livre e indicação em notas de rodapé de explicação

conceitual para o leitor menos familiarizado, de modo a não prejudicar a leitura do leitor já

familiarizado.

Não é objetivo da pesquisa tratar da tecnologia por ela mesma, o que

demandaria maior rigor terminológico. O que se pretende é deixar a linguagem o mais

acessível possível para atender a finalidade de clareza, sem obviamente cometer erros

conceituais.

Observa-se que a fase final de pesquisa foi desenvolvida simultaneamente

ao final da segunda fase da Cúpula Mundial sobre a Sociedade da Informação em Tunis e

assim incorpora os desenvolvimentos na área de governança da Internet, incluindo a

assinatura do Compromisso de Tunis e da Agenda de Tunis para a Sociedade da

Informação, porém antes da primeira reunião do IGF, a ser realizado em Atenas.

Além da consulta a textos, a pesquisa compreendeu pesquisa de campo ao

realizar trocas de informações com os membros do Grupo de Trabalho sobre a Governança

da Internet – GTGI, inclusive com participação do pesquisador na quarta e última reunião

do GTGI durante o mês de junho de 2005 em Genebra, na qualidade de United Nations

Fellow como membro do Secretariado do Grupo de Trabalho sobre a Governança da

12

Internet, e como participante nas Consultas Abertas sobre o IGF realizadas nas Nações

Unidas em Genebra em 16 e 17 de fevereiro de 2006.

Enquanto no Brasil a literatura jurídica que analisa os efeitos regulatórios de

arquitetura tecnológica é escassa, a doutrina nos Estados Unidos da América é avançada e

ampla10. Assim, a dissertação fará referência à doutrina estrangeira para alcançar os

objetivos pretendidos.

Devido à grande quantidade de acrônimos e siglas relacionadas aos temas de

governança da Internet, um glossário é fornecido e as siglas são sempre desmembradas em

cada Capítulo, a fim de facilitar a leitura.

1.5.Estrutura

Como é necessário compreender o objeto da pesquisa, a Internet, antes de

iniciar discussões sobre propostas regulatórias, a primeira parte da dissertação cuidará de

elucidação sobre aspectos de relevância sobre a tecnologia e o marco teórico usado para

sua abordagem jurídica, que envolve um desdobramento da teoria tridimensional do

direito, para então cuidar do desenvolvimento da segunda parte que focalizará os temas

específicos de sua governança.

Será importante para a compree

nsão do contexto que pede a governança

entender que a Internet evoluiu de modo muito incomum e informal. A comunidade de

cientistas tinha valores que se misturavam com a própria essência da Internet e que não

podem ser ignorados. As histórias e personalidades a serem retratadas nesse Capítulo têm

10Por exemplo, a discussão de arquitetura da Internet no contexto da regulação de acesso à Internet banda

larga por cabo desenvolvida por Barbara Esbin, em Internet Over Cable: Defining the Future in Terms of the Past..Llewellyn Joseph Gibbons também discute a arquitetura da Internet no contexto da governança da Internet em No Regulation, Government Regulation, or Self-Regulation: Social Enforcement or Social Contracting for Governance in Cyberspace. Sobre a arquitetura da Internet no contexto da privatização de determinadas funções técnicas, vide trabalho dos professores Jay P. Kesan, e Rajiv C. Shah Fool Us Once Shame on You – Fool Us Twice Shame on Us: What We Can Learn from the Privatizations of the Internet Backbone Network and the Domain Name System. James B. Speta discute a arquitetura da Internet no contexto da regulação da espinha dorsal (backbone) da Internet em A Common Carrier Approach to Internet Interconnection. A arquitetura da Internet no contexto da regulação de telecomunicações também é tratada por Jonathan Weinberg, no artigo The Internet And "Telecommunications Services," Universal Service Mechanisms, Access Charges, and Other Flotsam of the Regulatory System, Timothy Wu propõe que a análise da regulação da Internet fique focalizada na camada de aplicação, em Application-Centered Internet Analysis.

13

como finalidade transmitir ao leitor esse espírito para que o compreenda e então possa

seguir com formas eficazes de governança, respeitando os valores sociais.

Na conclusão, a tendência de mudança de paradigmas, que vem sendo

observada, é reforçada. Tradicionalmente, a red

populariza o então aristocrático Direito Internacional que

somente comporta Estados soberanos e organiz

uzida dimensão do Direito Internacional o

limitava a um conjunto de princípios e regras dirigidos a conservar a paz, restringindo

comportamentos dos Estados. A partir dessa constatação, Soares (2002, p. 27) informa que

o século XX marca uma nova fase, com o dever de cooperação latissimo sensu.

Essa necessária cooperação está intrinsecamente ligada à intensificação dos

contatos internacionais que

ações internacionais enquanto sujeitos de

direito internacional público. Essa popularização é revelada na intensa participação e

menção das organizações não-governamentais e mesmo de indivíduos nos documentos

relacionados ao processo da CMSI e de suas posteriores reuniões no formato de Consultas

Abertas. É de se ressaltar que tais atores, apesar de sua importante participação no processo

de governança da Internet, não recebem a personalidade de Direito Internacional

(SOARES, 2002, p. 154). Porém, cada vez mais o conceito de diplomacia multistakeholder

vem se formando como uma nova dimensão ao Direito Internacional.

14

2. A REGULAÇÃO PELA ARQUITETURA

Explorando o interessante problema colocado por Luiz Olavo Baptista

Em março de 1986, Baptista (1986, p.

120), ao apresentar sua tese para Livre Docência em Direito Internacional Privado, no

Departamento de Direito Internacional da Faculdade de Direito da Universidade de São

Paulo, com muita propriedade afirmou que “nem tudo são espinhos e dificuldades” no uso

de meios eletrônicos nas operações financeiras internacionais. Afinal, o Estado poderia

regular como as transações deveriam ser realizadas e monitoradas, de modo que o controle

a posteriori não apresentaria perplexidades. Baptista deixou um convite para a comunidade

jurídica explorar uma outra forma de controle, mais sutil e complexa: “as regras de

conduta, dirigidas às pessoas, via computador”.

Nesta dissertação, tal convite foi aceito, propondo-se o desdobramento

dessa modalidade de controle, aqui chamada de “regulação pela arquitetura”.

2.1. Internet: um sistema artificial

O homem não apenas encontra o mundo como ele é, mas também busca

compreendê-lo e transformá-lo. Essa capacidade transformativa encontra limites físicos,

como a escassez de certos minerais, a força da gravidade ou a reatividade de certos

elementos químicos. Tais limites físicos são menos determinantes no potencial de

transformação em sistemas informacionais, que são artificiais e, portanto, mais

influenciados pela ação humana em sua arquitetura.

O mundo percebido através de uma Tecnologia de Informação e

Comunicação11 – TIC é uma representação por ela intermediada. Na intermediação, a

11 As Tecnologias de Informação e Comunicação fazem parte de um campo relacionado à tecnologia e

aspectos de gerenciamento e processamento de informações.

15

tecnologia pode ser aplicada para moldar a representação. É o fenômeno da regulação pela

arquitetura.

Para facilitar o entendimento do conceito de regulação pela arquitetura, dois

exemplos são apresentados.

Uma avançada técnica de regulação pela arquitetura é realizada por sistemas

de gerenciamento de direitos digitais (Digital Rights Management – DRM systems, também

conhecidos como copyright management systems). Tais sistemas basicamente

implementam regras sobre os usos autorizados e proibidos para determinados arquivos

digitais. Um dos mais conhecidos12 atualmente no mercado é o sistema FairPlay, da

empresa Apple Computer, inserido na tecnologia multimídia de seu popular aparelho

iPod13 e sistema iTunes14. Cada arquivo de música adquirido através da iTunes Music

Store15 é codificado com o FairPlay, que impede os usuários de ouvir os arquivos em

outros computadores não autorizados, incluindo outros aparelhos portáteis concorrentes da

Apple Computer. Adicionalmente, o FairPlay estabelece as seguintes proteções: a faixa de

música protegida pode ser copiada em um número infinito de iPods, porém pode ser

executada em até cinco computadores autorizados simultaneamente; pode ser gravada em

um número infinito de vezes em uma mídia compact disc (CD), entre outras. Essa

regulação pela arquitetura impede o usuário de ouvir sua música em um aparelho

concorrente.

Um segundo exemplo de regulação através da arquitetura, através da

Internet, é a limitação do uso de sistemas de comunicação para fins profissionais em uma

empresa que bloqueia o acesso à navegação de certos web sites na Internet. Partindo do

pressuposto de que o localizador de um web site que contenha a expressão “mail” se refere

a um serviço de correio eletrônico web (webmail)16, é possível adicionar um comando para

que as informações relacionadas a tais web sites sejam bloqueadas de modo a impedir que

12 Além do FairPlay, existem outros sistemas de gerenciamento de direitos digitais que podem impor outras formas de controle, como limites ao número de vezes que um livro digital pode ser impresso, ou transmitido por e-mail. 13 iPod é a marca de um reprodutor de mídia digital portátil comercializado pela Apple Computer. 14 iTunes é o software embutido no iPod utilizado para carregar arquivos digitais de música, fotos, vídeo,

gerenciando uma biblioteca de dados e também com a função de copiar músicas de compact discs (CDs) para o iPod.

15iTunes Music Store é a loja online da Apple Computer sincronizada com o sistema iTunes para venda de arquivos digitais de músicas.

16Como, por exemplo, www.gmail.com, www.hotmail.com, e-mail.uol.com.br (grifos nossos).

16

o usuário obtenha acesso a seu e-mail particular, ficando, portanto, vinculado ao uso do

sistema de correio eletrônico corporativo17. Essa regulação pela arquitetura impede o

usuário de obter acesso a seu e-mail.

Em ambos os exemplos, o resultado final do controle pretendido não é

necessariamente perfeito. No primeiro caso, os usuários poderiam desenvolver programas

de computador para burlar as limitações do sistema FairPlay. Note-se que não é necessário

que cada indivíduo desenvolva a expertise para ele mesmo criar um programa de contorno

das limitações. Uma vez que um programa seja desenvolvido por um especialista, ele pode

ser distribuído pela Internet para que outros usuários o utilizem18. No exemplo do

funcionário que pretenda utilizar um webmail que escape ao controle prévio de filtragem

do administrador do sistema, basta encontrar algum serviço de e-mail que não contenha em

seu localizador a expressão “mail”19, apenas esperando que seu uso não seja descoberto

pelos administradores.

Entretanto, mesmo em tais exceções, o que se deve observar é que o mundo

representado através de uma mídia digital pode estar sujeito a alguma ferramenta de

controle. Quando o usuário utiliza algum recurso para contornar o controle prévio que a ele

se pretendia impor, a ferramenta de controle final acaba sendo a técnica de contorno20, que

se sobrepõe à técnica de controle original.

Na competição entre criadores de proteções tecnológicas e aqueles que

desenvolvem e divulgam formas de contornar as proteções, não interessa para o

entendimento do conceito de regulação pela arquitetura quem é o vencedor final. Ao

contrário, o que se pretende ressaltar é que a experiência de um usuário diante de um

sistema digital de Tecnologia de Informação e Comunicação – TIC é fortemente limitada

17 Muitos escritórios de advocacia, por exemplo, para manterem informações de sigilo profissional de seus

clientes em seus sistemas informáticos, utilizam a técnica mencionada, evitando o acesso de funcionários a web sites de e-mail particular, com o intuito de impedir que arquivos confidenciais sejam transmitidos por rotas que não sejam monitoradas pelo administrador do sistema.

18 No começo de 2004, Jon Johansen, conhecido por quebrar a proteção de discos DVD, descobriu uma maneira de contornar a proteção do DRM FairPlay. Mais informações em iTunes DRM cracked wide open for GNU/Linux. Seriously. The Register.

19 Como o serviço fornecido pela empresa alemã www.gmx.net por exemplo. 20 Ressaltamos que nas lutas entre aquele que protege uma informação e aquele que procura escapar à

proteção instalada, não apenas ferramentas de proteção e quebra de proteção são usadas. Em casos de fraudes, uma técnica muitas vezes utilizada explora o lado humano (social engineering), e não a vulnerabilidade tecnológica.

17

de acordo com as regras previamente determinadas pelos programadores de tal sistema

usando a regulação através da arquitetura.

Essas regras previamente determinadas não são neutras.

2.2.Crítica às visões neutras e unilaterais em relação à tecnologia

“Armas não matam pessoas. Pessoas é que matam pessoas”. Este é um dos

mantras associados à idéia da neutralidade tecnológica21. Para movimentos como o

Tecnorrealismo22, devemos fugir do mito da neutralidade, da crença de que artefatos

inanimados são neutros e não estimulam determinados tipos de comportamento. Ao

contrário, as tecnologias são repletas de conseqüências, algumas desejadas e outras

imprevistas.

É antiga a preocupação do homem com os impactos sociais trazidos por

tecnologias: Sócrates apud Platão (2003, p. 118) conta a história do rei egípcio Tamuz, que

continuamente analisava as invenções do deus Thoth, aprovando-as ou não. A escrita é

apresentada com grande entusiasmo por Thoth como uma fórmula infalível para a memória

e sabedoria do povo egípcio. O faraó, receoso, contra-argumenta:

Grande artista Thoth! Não é a mesma coisa inventar uma arte e julgar da utilidade ou prejuízo que advirá aos que a exercerem. Tu, como pai da escrita, esperas dela com o teu entusiasmo precisamente o contrário do que ela pode fazer. Tal coisa tornará os homens esquecidos, pois deixarão de cultivar a memória; confiando apenas nos livros escritos, só se lembrarão de um assunto exteriormente e por meio de sinais, e não em si mesmos. Logo, tu não inventaste um auxiliar para a memória, apenas para a recordação.

21 Não se deve confundir essa pretensa neutralidade tecnológica com o “princípio da neutralidade” referido na

dissertação como aquele em que a rede de comunicações não realiza discriminação sobre a natureza dos dados a serem transmitidos. O princípio da neutralidade está relacionado ao princípio fim-a-fim e será analisado em maiores detalhes oportunamente.

22 O Tecnorrealismo é um dos movimentos que busca a compreensão das implicações sociais e políticas das tecnologias de forma a alcançar um maior controle sobre a construção do futuro, analisando como as novas tecnologias podem auxiliar ou prejudicar a qualidade de vida pessoal, comunitária e as estruturas econômicas, políticas e sociais. Disponível em <http://www.technorealism.org>. Acesso em 15.01.2006.

18

Valendo-se da história de Fedro, na introdução de Technopoly – The

Surrender of Culture to Technology, Neil Postman (2000, p.13) alerta sobre a existência de

muitos Tamuzes e Thoths em nossa sociedade. Os tecnófobos e tecnófilos ignoram a

coexistência tanto de valores positivos como negativos nas tecnologias.

Ao invés de buscar uma distinção dual entre benefícios e malefícios, nesta

dissertação, o intuito será fazer uma análise atenta das múltiplas forças e valores que a

moldaram, quais efeitos a regulação através da arquitetura atual traz e como o direito

internacional público pode ser usado para adequação desta forma regulação aos princípios

jurídicos que melhor atendam ao interesse público.

2.3. Regulação a priori e a posteriori

A respeito de aplicação de controle jurídico a posteriori de realizações

jurídicas intermediadas por meios eletrônicos, não há grande dificuldade, sendo que com a

devida perícia técnica, os institutos podem ser empregados com relativa facilidade,

existindo apenas algumas lacunas que com a maturidade legislativa serão superadas. A

regulação a posteriori não é o foco da dissertação, que é dedicada a uma técnica jurídica de

menor obviedade: o efeito a priori na regulação pela arquitetura.

O efeito regulatório a priori que a tecnologia possibilita foi assim suscitado

na pioneira tese de Baptista (1986, p.120) sobre as Transferências Eletrônicas

Internacionais de Fundos (“TEIF”):

[...] Os controles ‘a posteriori’ não representariam problema.

Já no que se refere aos controles prévios não se pode dizer o mesmo. O fato de que as TEIF podem ser originadas quer de um cartão de crédito, quer de um terminal situado em um estabelecimento comercial ou industrial qualquer, ou mesmo em terminais abertos ao público dia e noite, apresenta problemas que deverão ser resolvidos não só em termos regulamentares, mas, também, em termos de programação. Aqui, coloca-se um interessante problema para os estudiosos de Teoria Geral do Direito, o da possibilidade de existência de regras de conduta, dirigidas às pessoas, via computador!

O desafio deixado por Baptista é intrigante e não pode ser devidamente

enfrentado sem as contribuições de Miguel Reale (1968, 1974, 1998, 1999).

19

2.4. Tridimensionalidade do Direito

Através da técnica da Teoria Tridimensional do Direito estruturada por

Reale (1968) é possível o destrinçar das forças regulatórias que moldam a tecnologia,

imprimindo-lhe valores em sua criação e regulando sua aplicação.

O fenômeno jurídico, qualquer que seja a sua forma de expressão, requer a

participação dialética do fato, do valor e da norma. Reale (1968, 1974, 1999) descreve com

originalidade o relacionamento entre os três componentes.

Enquanto para as demais fórmulas tridimensionalistas, por ele descritas

como genéricas ou abstratas, os três elementos se vinculam como em uma adição, quase

sempre com prevalência de algum deles. Já em sua concepção, chamada de específica ou

concreta, a realidade fático-axiológico-normativa se apresenta como uma unidade,

havendo nos três fatores uma implicação dinâmica. Cada qual se refere aos demais, e por

isso, só há sentido no conjunto. As notas dominantes do fato, valor e norma estão,

respectivamente, na eficácia, fundamento e vigência.

Para a teoria, toda experiência jurídica pressupõe sempre um elemento de

fato, ordenado valorativamente em um processo normativo. O direito não possui uma

estrutura simplesmente factual, como querem os sociólogos, ou valorativa, como

proclamam os idealistas, e nem mesmo normativa, como defendem os normativistas. Todas

essas visões são parciais e não revelam individualmente toda a riqueza do fenômeno

jurídico, que congrega aqueles componentes, mas não em uma simples adição. Juntos vão

formar uma síntese integradora, na qual cada fator é explicado e influenciado pelos demais

e pela totalidade do processo.

A Teoria Tridimensional do Direito é didaticamente apresentada por Reale

(1999, p. 65) em Lições Preliminares de Direito

a) onde quer que haja um fenômeno jurídico, há, sempre e necessariamente, um fato subjacente (fato econômico, geográfico, demográfico, de ordem técnica, etc.); um valor, que confere determinada significação a esse fato, inclinando ou determinando a ação dos homens no sentido de atingir ou preservar certa finalidade ou objetivo; e, finalmente, uma regra ou norma, que representa a relação ou medida que integra um daqueles elementos ao outro, o fato ao valor;

b) tais elementos ou fatores (fato, valor e norma) não existem separados uns dos outros, mas coexistem numa realidade concreta;

20

c) mais ainda, esses elementos ou fatores não só se exigem reciprocamente, mas atuam como elos de um processo [...], de tal modo que a vida do Direito resulta da integração dinâmica e dialética dos três elementos que a integram.

A norma, assim, é uma ordenação de fatos, segundo valores.

Desenvolvendo variações da concepção proposta por Reale, é possível

afirmar que, dada a interação entre as três dimensões regulatórias, duas outras assertivas

são igualmente verdadeiras: (i) o fato é influenciado por normas e valores e (ii) os valores

estão sujeitos à norma e ao fato.

Existe, assim, uma interação entre as três dimensões apresentadas. Ao

cuidar da análise da definição de padrões tecnológicos na governança da Internet, não

apenas será levado em consideração o plano normativo mas também o plano valorativo e,

principalmente, o plano fático que é onde a tecnologia é moldada conforme interesses de

seus arquitetos. A aplicação do plano normativo sobre o fato deve atentar para quais efeitos

o próprio Direito pretende receber do fato por ele influenciado.

A interação entre as dimensões deve ser harmônica e conduzida como uma

arte. Seu desequilíbrio pode gerar resultados indesejados, como uma ilegítima supressão da

norma em função do fato: se a norma jurídica protege a propriedade contida dentro de uma

gaveta cerrada, não é a invenção de uma gazua que, sendo incompatível com a norma, deve

revogá-la23. Assim, as novas tecnologias não devem suprimir o ordenamento jurídico

existente somente por possibilitarem, no plano fático, uma conduta diversa do que a

prescrita na legalidade.

Exercendo um papel semelhante ao do rei Tamuz, o plano valorativo avalia

as possibilidades técnicas e conduz à adoção de determinados padrões. Dada a sua

importância, a cautela é necessária para evitar juízos precipitados, inconseqüentes ou

unilaterais, como narrado em Fedro. Faz-se necessário, assim, um diálogo entre as

múltiplas partes interessadas (“multistakeholder”)24 que busque um consenso acerca dos

23 Essa discussão, no contexto dos sistemas de Digital Rights Management, leva doutrinadores a defender o

direito de burlar os sistemas para exercitar o fair use, exceção do Common Law para as regras de copyright. Mais informações em: <http://www.eff.org/IP/DRM/fair_use_and_drm.html>. Acesso em 16.01.2006.

24 De grande debate recente, o conceito multistakeholder vai além do tradicional conceito de multilateralismo que indica que apenas Estados participam. O debate multistakeholder inclui também as organizações internacionais, sociedade civil e setor privado.

21

rumos que a Internet deve tomar, definindo assim princípios a seguir e objetivos a serem

atingidos.

Não se pretende realizar o estudo valorativo com profundidade, pelas

implicações no campo da ética e de modelos morais que merecem estudos à parte25. No

Capítulo 7 é mostrada a importância do vetor valorativo no caso do princípio de arquitetura

de rede fim-a-fim, pois diferentes benefícios e riscos estão envolvidos em sua manutenção,

supressão ou ausência de ação normativa.

Quanto ao plano fático, é de fundamental importância a teoria Code is Law,

de Lawrence Lessig (1999), professor da Stanford Law School, que reforça a importância

da tecnologia, o código (code) no processo de regulação pela arquitetura.

2.5. A força do código na regulação pela arquitetura

A análise da teoria de Lessig (1999) sob a perspectiva proposta por Reale

(1968) está centrada no plano fático.

Tal como Reale, Lessig reconhece a existência de diversas forças no

processo de regulação, a saber: (i) valores sociais; (ii) norma; (iii) arquitetura; e (iv)

mercado. Assim, o plano fático de Reale é desmembrado em “arquitetura” e “mercado” por

Lessig. Os efeitos regulatórios do mercado são de menor importância para a compreensão

de sua teoria, que é focalizada na arquitetura.

Os valores sociais, se desrespeitados, implicariam estigmas impostos pela

comunidade; a norma violada implicaria sanção; a arquitetura imporia restrições físicas e

lógicas e o mercado faria seu papel regulatório pelo preço. Para elucidar, é analisado

brevemente como cada um dos fatores influencia a decisão de acender um cigarro:

Pela dimensão normativa, o fumo é restrito em ambientes fechados e a

venda de cigarro é proibida a menores de idade. As normas de convívio social reprimem o

25 Cf., entre outros, Jacques Berleur, Penny Duquenoy e Diane Whitehouse, Ethics and the Governance of the

Internet. Tom Dedeurwaerdere, Ethics, Social Reflexivity and Governance of the Information Society, A Reflexive criticism of the institutional framing of the Internet. .

22

fumo dentro de um automóvel junto com não fumantes, ou durante uma refeição. O

mercado influencia no preço e variedade de cigarros disponíveis. Finalmente, os limites da

tecnologia, da arquitetura dos cigarros, encontram-se no aroma, na quantidade de nicotina

e nos seus efeitos de dependência química. Dos elementos apresentados, alguns têm mais

influência do que outros; porém, uma análise completa considera todos.

A legislação destinada à regulação direta estabelece que é proibido o fumo

em recinto coletivo, privado ou público, salvo em área destinada exclusivamente a esse

fim, devidamente isolada e com arejamento conveniente. Diante da possibilidade fática de

cigarros serem fumados em um restaurante, por exemplo, e da valoração social de uma

inconveniência, é produzida uma norma que restringe esse comportamento. Em situações

em que não há a possibilidade fática do fumo (e.g. em um mergulho submarino) ou em que

não haja uma repressão social (e.g. em ambientes abertos), não existe manifestação

normativa.

A regulação indireta exercida pela norma buscaria influenciar as outras

forças regulatórias: o governo poderia criar uma campanha de âmbito nacional visando

alertar a população sobre os efeitos maléficos do fumo, modificando assim as normas

sociais.

A regulação indireta da norma sobre a arquitetura seria a exigência de

redução do nível de nicotina e fiscalização química dos componentes utilizados na

fabricação dos cigarros, garantindo que a dependência química seja menor e haja,

conseqüentemente, uma redução em seu consumo.

Finalmente, realizando o desmembramento do plano econômico de acordo

com a teoria de Lessig, a imposição de altos tributos, que são por fim repassados aos

consumidores, contribui para uma redução no consumo do produto.

Cada uma das ações apresentadas implica um custo de oportunidade e a boa

governança equilibra as formas, dosando-as e aplicando-as de forma sistemática, obtendo

resultados otimizados, guiando e restringindo comportamento através de processos e

instituições formais e informais. Essa governança deve ser transparente, principalmente no

que concerne à regulação indireta, que é sutil.

Considerando-se que a realidade percebida através de uma Tecnologia de

Informação e Comunicação – TIC é uma representação por ela intermediada e que na

intermediação a tecnologia pode moldar a representação, as relações intermediadas pela

23

Internet são mais influenciadas pela regulação pela arquitetura. Daí a importância da

arquitetura no processo de governança.

A forma como o sistema é projetado implica diferentes liberdades e

controles. Pode-se afirmar que aquele que detém conhecimento ou possibilidade de

modificar os protocolos de comunicação detém mais poder, da mesma forma como nos

dois primeiros exemplos trazidos: o usuário que tem acesso a ferramentas de contorno dos

sistemas de gerenciamento de direitos digitais ou o funcionário que usa os recursos

informáticos da empresa contornando as tentativas de bloqueio dos administradores do

sistema.

Aquele que controla a dimensão fática (arquitetura tecnológica) detém

grande força no controle da Internet exercendo regulação pela arquitetura.

Lessig (1999, p. 89) apresenta a aplicação do modelo regulatório para

relações intermediadas pela Internet da seguinte forma:

A norma regula normalmente através do direito autoral, direito criminal e

todos os ramos do Direito que continuam a regular a posteriori. Os valores também

influenciam o comportamento, de modo que certas mensagens sobre política não são bem

vindas em grupos de discussão sobre tricô. Existem sanções sociais aplicáveis pela

comunidade com quem se relaciona através da Internet. Os mercados regulam

normalmente ao distribuir conteúdo em áreas abertas ao público geral e áreas exclusivas

para assinantes. A audiência de certos web sites permite realização de publicidade e

melhora na qualidade do serviço. Finalmente, a analogia para a arquitetura na Internet é o

código, o software e hardware envolvidos na troca de informações.

Em alguns web sites é necessário digitar uma senha para obter acesso. Em

outros, é possível a visita independentemente de identificação. Em alguns serviços, como

no de vendas da loja Amazon.com, as compras recentemente realizadas e itens analisados

são cadastrados e utilizados como base de pesquisa para que o sistema eletrônico

identifique um determinado padrão do comprador e possa fazer recomendações

automáticas dentro desse leque de interesse. Mudanças de configuração impedem a

Amazon.com de proporcionar esse serviço diferencial. Em alguns web sites é possível

realizar uma comunicação segura através de criptografia e em outros esse recurso não está

disponível. O código, software, protocolos ou arquitetura são o que definem essas

24

características, tornando certos tipos de comportamento possíveis ou impossíveis. Nesse

sentido, a arquitetura é uma força regulatória.

A arquitetura tecnológica original da Internet vem sofrendo alterações que

tendem a modificar o controle da rede.

Para que se entenda a tendência de modificação do controle, inicialmente

será analisado, no Capítulo 3, a arquitetura original da Internet e como ela favoreceu a

criação e inovação. Antes, porém, é válido um adendo sobre uma noção geralmente

confusa: o “ciberespaço”.

2.6. A possibilidade de controle

Apesar de ampla aceitação hodierna da teoria Code is Law, no começo da

década de 1990, a artificialidade do ciberespaço enquanto sistema criado pela vontade

humana, e portanto sujeito às modificações desejadas pelo homem, não foi adequadamente

entendida. Diversos observadores compartilhavam a percepção de que a Internet seria um

“ciberespaço” caótico e incontrolável, e que qualquer tentativa de sua regulação estaria

destinada ao fracasso.

Nesse sentido, foi escrita a Declaração de Independência do Ciberespaço

por John Perry Barlow (1996), direcionada aos governos do mundo industrial. Segundo o

documento, os governos não seriam nem legítimos, bem vindos ou sequer capacitados para

exercer qualquer tipo de regulação. Referido documento não possui a natureza jurídica das

declarações de independência reconhecidas pelo direito internacional público, mas sua

leitura é fundamental para um contato com determinados ideais que foram postos à

discussão no momento histórico situado, aproximadamente, entre 1995 a 1997, em que

uma transição modificou o inicial ambiente pretensamente anárquico para iniciar o

fortalecimento de um processo de governança.

25

Ainda, freqüentemente era argumentado que as atividades realizadas no dito

“ciberespaço” ignoravam as barreiras territoriais26, dificultando ou impossibilitando a

identificação dos elementos de conexão do direito internacional privado para determinar

quais regras seriam aplicáveis às relações jurídicas eletrônicas.

Mas a vida social no ciberespaço se intensificou ao longo da década de 90 e

então esse entendimento desapareceu paulatinamente. É entendido que os governos podem

e devem influenciar a arquitetura, a construção do ciberespaço, em contraste com o

entendimento anterior de impotência. Mais ainda, não apenas os governos, mas também as

organizações internacionais, sociedade civil e setor privado são reconhecidos todos como

partes interessadas (stakeholders) com papéis e responsabilidades comuns no processo de

governança da Internet.

Ainda com relação à Declaração de Independência do Ciberespaço e

considerando que diversos juristas27 fazem referência ao “ciberespaço” alternativa e

indistintamente à Internet, apresentaremos breve crítica ao uso deste termo, que não deve

ser confundido com a Internet para as finalidades desta dissertação.

2.7. Derrubando o mito do ciberespaço

“Ciberespaço” é um termo que ganhou popularidade com o livro

Neuromancer do escritor de ficção científica William Gibson para descrever um espaço

eletrônico oposto ao espaço concreto em que as pessoas são feitas de carne, chamado

“meatspace”. O “ciberespaço” de Gibson é um local de dimensões infinitas, sem elementos

físicos e formado por elétrons, microondas e pulsos de luz.

A idéia por trás do “ciberespaço” de Gibson é antiga e alguns filósofos a

associam à alegoria da caverna de Platão talvez uma das primeiras realidades conceituais,

26 Cf., entre outros, artigo de Tarcisio Queiroz Cerqueira, O Direito do ciberespaço. O ponto de vista pelo

qual o ciberespaço é considerado como um lugar foi criticado por Demócrito Reinaldo Filho, em O Cyberspace como um lugar, um estado mental ou meios de comunicação?

27 Cf., entre outros, Dan Hunter, Cyberspace as a Place, and the Tragedy of the Digital Anticommons, Paul Schwartz, Privacy and Democracy in Cyberspace. Tamar Frankel, The Common Law and Cyberspace.

26

em que também pode ser incluída a idéia de noosfera28. A abordagem filosófica do

“ciberespaço” é rica e passa por diversos teóricos. Paralelamente, a indústria do

entretenimento também produziu obras que exploram a abstração metafórica para uma

realidade virtual29, como no longa-metragem Tron dos estúdios Disney, em que um

programador é digitalizado por um raio e transferido para dentro de um computador.

Apesar da plasticidade desse conceito, o “ciberespaço” de Gibson deve ser

completamente afastado e ignorado para os objetivos pretendidos nesta dissertação. As

analogias à ficção científica devem ser muito cautelosas.

Estudos científicos que se basearam na analogia do “ciberespaço”

semelhante ao de Gibson chegaram a concluir que seria necessário um novo corpo jurídico

específico para o mundo virtual distinto do mundo físico. Para David Johnson e David Post

(1997, p. 13), muitos dos conflitos levantados por comunicações eletrônicas

transfronteiriças poderiam ser resolvidos se o “ciberespaço” fosse concebido como um

local distinto para propósitos de análise jurídica e reconhecida uma borda divisória entre o

mundo físico e o ciberespaço. Com a abordagem proposta, os autores evitariam a discussão

sobre onde no mundo geográfico uma transação de Internet ocorreu. Tais iniciativas não

ganharam suporte e foram posteriormente criticadas (SARAT A., DOUGLAS L.,

UMPHREY M., 2003).

Andrew Shapiro (1999, p. 31) reconhece que tais sentimentos são bem

intencionados e até compreensíveis na medida em que usuários da Internet podem ter a

sensação de que estão em outro local quando interagem online, e que existem dificuldades

jurídicas devido às comunicações transnacionais. Mas que seria um engano conceitual e

prático erguer uma barreira divisória entre a atividade online e offline.

Portanto, em observância do rigor científico, a dissertação não utilizará uma

simples analogia à ficção científica ou partirá de conhecimentos gerais e superficiais sobre

a Internet. Ao contrário, analisará a Internet conforme sua arquitetura funcional,

possibilitando a compreensão e separação das múltiplas formas e funções da rede ao longo

dos Capítulos 3 e 4. Serão abordados conceitos técnicos como protocolos de comunicação

28 A idéia de noosfera é conexa a uma “esfera do pensamento humano”. Para o teólogo Pierre Teilhard de Chardin, a noosfera é relacionada a uma consciência transhumana que emerge da integração de todas as mentes na Terra. 29 Pierre Lévy (1996) define o processo de virtualização como uma “heterogênese, um devir outro, processo de acolhimento da alteridade”, sendo que o “virtual” não é oposto a “real”. O “virtual” está oposto ao “atual”: enquanto a atualização é a solução de um problema não anunciado, uma produção de novas qualidades, a virtualização é seu movimento inverso, uma “elevação à potência” da entidade considerada.

27

como o X.25 e Transmission Control Protocol / Internet Protocol - TCP/IP, as técnicas de

troca de informação e decisão por quase-consenso (rough consensus) dos Requests for

Comments - RFCs, o conceito de camadas de estrutura de rede e diversos órgãos e

processos envolvidos nos processos funcionais da Internet que atraíram o interesse dos

atores empresariais, como o Sistema de Nomes de Domínio – DNS e a controversa Internet

Corporation for Assigned Names and Numbers – ICANN.

A descrição adotada buscará facilitar a compreensão do texto ao leitor não

familiarizado com termos técnicos e informáticos.

2.8. Conclusão deste capítulo

No Capítulo 2 foi apresentado o primeiro pressuposto da dissertação: a

arquitetura escolhida implica efeitos que ultrapassam a dimensão técnica de

funcionalidade, mas principalmente de controle, com efeitos normativos. Denominamos

esse fenômeno de regulação pela arquitetura.

A Internet é criada de acordo com diversos interesses e valores. Sua

tecnologia reflete esses interesses e deve ser considerada em abordagens regulatórias.

Nos próximos Capítulos da dissertação, o problema da ausência de uma

forma adequada para a tomada de decisão, no tocante à influência dos interesses e valores

já apontados, na arquitetura da rede, é identificado e tratado. Essa ausência permite que

benefícios sejam obtidos pelos agentes mais articulados em moldar a Internet de acordo

com seus interesses. No aperfeiçoamento da governança da Internet, a atual competição

deve dar lugar à colaboração.

28

3. DINÂMICA

Internet e as novas águas do rio de Heráclito

Estruturada a solução ao problema da regulação pela arquitetura através da

Teoria Tridimensional do Direito, é necessário empregá-la no caso concreto, estabelecendo

como a dinâmica entre fato, valor e norma deve se desenvolver de forma legítima

internacionalmente, por ser a Internet uma rede de escopo global.

A dimensão fática, o código da Internet, foi historicamente desenvolvida de

modo colaborativo por cientistas acadêmicos. Com a expansão e evolução da Internet,

novos interesses são identificados e a regulação através da arquitetura da Internet hoje

carece de um mecanismo institucional adequado.

Neste Capítulo 3, será apresentada uma idéia geral sobre o funcionamento

da Internet para uma maior familiarização com o tema e os componentes técnicos que

serão explorados oportunamente.

Ênfase é dada para que se note que inicialmente a Internet surgiu como um

projeto militar norte-americano, com valores de resistência que pautaram o

desenvolvimento de sua arquitetura. Conforme novos interesses entram em jogo, novos

valores e conseqüentemente novos modelos de arquitetura são introduzidos, produzindo

competição em certos casos, que serão analisados nos Capítulos 4 e 5.

No início, alguns poucos cientistas moldaram a existência da Internet.

Conforme mais interesses foram agregados, diferentes estruturas com maior democracia,

responsabilidade e legimitidade são necessários para atender às expectativas de

governança.

Como visto no Capítulo 2, a Internet é um produto artificial projetado

conforme os interesses dos grupos que sobre ela exercem a maior influência. Por toda a

história da Internet é claro o seu caráter dinâmico e justamente por isso é que se deve

buscar um modelo regulatório de manutenção e desenvolvimento que continue atendendo

ao interesse público que não seja capturado pelos interesses de poucos stakeholders.

29

O que se coloca na dissertação deve ser entendido não apenas para a

Internet, mas também para as chamadas tecnologias de Next Generation Networking -

NGN, expressão que se refere a arquiteturas de rede de computadores atualmente em

desenvolvimento destinadas à comunicação de dados como voz, dados e vídeo. Seu

funcionamento também, como na Internet, é baseado em transmissão por pacotes de dados,

porém com mecanismos adicionais que buscam garantir a qualidade do serviço de

transmissão.

3.1. Definição de Internet

Ao invés de entender a Internet como um objeto fixo, parece mais adequado

aproveitar a noção trazida por Platão a respeito do pensamento de Heráclito30: panta rhei

(“tudo flui”). Assim como o homem nunca se banha duas vezes no mesmo rio, a Internet

nunca é a mesma, está em constante mutação. Na filosofia de Heráclito, a realidade não é

exatamente uma coleção de coisas, mas sim de processos. Não devemos entrar na falácia

de substanciar a natureza em objetos duradouros e perenes, pois o mundo não é composto

de coisas duráveis e estáveis mas de forças fundamentais e várias e fluidas atividades. O

processo é fundamental: o rio não é um objeto, mas um fluxo em constante mudança.

Tentativas de definição da Internet tenderão a capturar um momento de sua existência, que

é diferente de como ela foi no passado e de como pode ser no futuro.

30 É necessário observar que apesar de comum atribuir a alegoria do rio como aquela em que o filósofo havia dito que o homem não se banha duas vezes no mesmo rio, tal não é a mais fiel representação das idéias de Heráclito, mas sim a interpretação feita por Platão no tocante ao fluxo universal em Crátilo (402a): “Heráclito, creio, diz que todas as coisas passam e nada permanece e, comparando os entes (tà ónta) ao fluxo de um rio, diz que você não pode entrar duas vezes no mesmo rio”. Para o filósofo Hélio Schwartsman, em São Paulo, o rio e Heráclito, o trecho que representa o pensamento de Heráclito com maior fidelidade é o fragmento B12 que diz “Para os que entram nos mesmos rios, outras e outras são as águas que correm por eles”.

30

Atualmente, a Internet31 é a maior rede de computadores32 mundial. A

Internet é constituída por milhares de redes menores comerciais, acadêmicas, domésticas e

governamentais. Assim, não podemos exatamente chamar a Internet de uma rede: ela é

uma rede de redes, todas interconectadas direta ou indiretamente. Uma rede de

computadores consiste em um grupo de computadores conectados de modo que possam

comunicar-se de alguma forma. O sistema da Internet interconecta redes de computadores

que transmitem dados por uma técnica chamada de “comutação de pacotes” (packet

switching) usando uma série de protocolos padronizados.

Não se deve confundir a Internet com o equipamento (hardware) que a

sustenta, como computadores, fios e cabos. Ao invés de entender a Internet enquanto

hardware, dizemos que a Internet é baseada no software que garante a transmissão de

dados pelas redes que a compõe.

Assim, hoje definimos Internet como o sistema global de comunicação de

dados formado pela interconexão de redes públicas e privadas de telecomunicação através

da utilização do TCP/IP e demais protocolos necessários33.

As comunicações da Internet precisam definir um protocolo, que é um

padrão que permite a conexão, comunicação e transferência de dados entre dois pontos. O

amplo uso e grande difusão dos protocolos de comunicação é um pré-requisito para a

existência da Internet. O termo TCP/IP se refere ao conjunto de protocolos Internet

Transmission Control Protocol (TCP) e Internet Protocol (IP). O protocolo IP34, inventado

em 1974 pelos cientistas Vinton Cerf e Robert Kahn, divide mensagens em pequenas

frações, os pacotes, e atribui um cabeçalho a cada um desses pacotes com dados de

endereçamento de destinatário e remetente enviando-os na base do melhor esforço. Se

31 A Internet não é uma pessoa jurídica, tal como a Swift, sociedade civil de direito belga fundada em 1973

com finalidade de operar uma rede internacional de telecomunicações através de computadores, conforme relata Baptista (1986 p.49). Logo, seu tratamento regulatório não é direto, mas sim indireto e complexo.

32 Por “computadores” não apenas fazemos referência ao tradicional computador pessoal em “desktop” com gabinete e monitor, mas também laptops, aparelhos de telefonia celular, blackberry, e outros aparelhos domésticos que cada vez mais vêm sendo conectados à Internet, como geladeiras, carros, banheiras, entre outros que contenham dispositivos computacionais capazes de conexão de seus sistemas à rede.

33 Muitos outros protocolos além do TCP/IP estão envolvidos em comunicações de Internet, como Ethernet para Local Area Networks (LANs) e Frame Relay ou T1 para Wide Area Networks (WANs). O ponto é que, sem um conjunto definido de protocolos, as várias redes não conseguem se comunicar e assim não poderiam formar a rede das redes. O TCP/IP por trás da Internet permite que diversas redes usando diferentes protocolos possam comunicar dados entre si.

34 Detalhes técnicos estão publicamente disponíveis na Internet através do RFC 791.

31

algum pacote for perdido durante a transmissão, a máquina de destino usará um protocolo

relacionado, o TCP, para que a máquina remetente retransmita os pacotes perdidos.

A maioria dos protocolos de comunicação é definida através de

memorandos chamados Request for Comments (RFC) da Internet Engineering Task Force

(IETF). Os RFCs são produzidos de modo distinto dos meios mais formalistas tradicionais:

são escritos por especialistas que participam de grupos de trabalho por iniciativa própria e

revistos de modo comunitário em rede.

A IETF, que não tem uma personalidade jurídica, consiste em um grupo

informal de engenheiros que discute os protocolos em seu tempo livre através de listas de

discussão em e-mail e muito raramente organizam um encontro em alguma cidade,

buscando o consenso sobre o que melhor funciona para os desafios técnicos. Como

desempenha um papel essencial na construção da Internet, será examinada em detalhes ao

final da dissertação.

O projeto da Internet foi realizado por um grupo de pessoas com um

objetivo comum de melhorar a Internet. Essas pessoas tinham uma formação semelhante e

pouca paciência com estruturas formais e jurídicas. Tal sistema informal funciona melhor

quando os temas em discussão são maçantes e aparentemente livres de implicações

políticas. Assim, os cientistas podem deliberar sem pressão externa em um sistema

altamente informal. Conforme a tecnologia alcança maiores segmentos da sociedade, que

entende melhor os impactos sociais das decisões tomadas pelos cientistas isoladamente, as

discussões de governança ficam mais acirradas e os sistemas informais revelam-se carentes

de legitimidade.

3.1.1. Aplicações

É também importante, ao fazer os esclarecimentos iniciais, distinguir a

Internet em si dos tipos de aplicação que operam através dela. Um exemplo claro para

ilustrar essa diferença é o correio eletrônico (e-mail), que é uma aplicação que utiliza a

Internet para a entrega das mensagens eletrônicas. Outra confusão, mais corrente e menos

intuitiva, é relacionada à World Wide Web. Quando se fala em “navegar na Internet”,

32

geralmente se pensa em visualização de web sites por um programa de navegação

(browser) como o Internet Explorer, Netscape Navigator, Mozilla firefox, entre outros.

Mas, assim como o e-mail, o web site é uma aplicação, não devendo ser confundido com a

Internet em si35.

É importante notar que o projeto original da Internet não restringe os tipos

de aplicações que podem ser transmitidas por ela, o que é conhecido como princípio da

neutralidade, relacionado ao princípio fim-a-fim, cujo futuro será analisado na última parte

da dissertação.

3.2. Breve histórico da Internet

Neste Capítulo, não se pretende proceder com um minucioso estudo da

história da Internet36, mas apontar elementos históricos que influenciaram a Internet atual e

apresentar um retrato da Internet original que tende a ser modificado por novos atores que

buscam maior controle.

A Internet não era originariamente um meio para comunicação interpessoal:

ela foi planejada para permitir que cientistas superassem as dificuldades em executar

programas em computadores remotos.

A Internet tem suas origens na Advanced Research Projects Agency -

ARPANET, sua antecedente que se expandiu impulsionada pela comunidade acadêmica

envolvida no seu desenvolvimento. Após definição de soluções de novos protocolos para

comportar o crescimento da ARPANET, os usuários militares se fecharam em uma rede

menor para seus usos batizada de MILNET e a ARPANET se tornou parte de um sistema

maior, a Internet, aberta a um amplo espectro de atividades civis. A Internet comercial,

35 Outras aplicações existem e, caso o ambiente de estímulo à criação continue, novas serão inventadas. Não

entraremos em detalhes, mas existem também outros aplicativos como as redes peer-to-peer (P2P), canais de comunicação direta como o instant messaging e a voz sobre IP (VoIP).

36 Três obras indicadas na bibliografia são Inventing the Internet, de Janet Abbate, When Wizards Stay Up Late (The Origins of the Internet), de Katie Hafner e Matthew Lyon e All About the Internet: History of the Internet, da Internet Society.

33

voltada à comunicação, somente surgiu após um longo processo de reestruturação técnica,

organizacional e política.

A Internet começou como um pequeno projeto, e, portanto, sem necessidade

de governança sofisticada, por se tratar de um assunto local norte-americano envolvendo

interesses militares através da comunidade acadêmica. Não havia preocupação

internacional a respeito da Internet. A historiadora Janet Abbate relata que sequer existia

uma significativa preocupação nacional nos Estados Unidos da América sobre o futuro e

uso da Internet, pois o projeto era apenas conhecido dentro de uma comunidade científica,

e assim o Congresso norte-americano não colocava assuntos relacionados à Internet em

suas pautas de discussão. Esse fator permitiu que forças individuais tivessem grande força

em moldar o atual formato da Internet sem a necessidade de um órgão democrático

representativo.

Dessas forças, merecem destaque as militares e acadêmicas. Como a base

de usuários iniciais era pequena e a política de uso da rede proibia atividades comerciais,

as forças comerciais eram inicialmente fracas e só ganharam relevância significante com o

DNS, a ser analisado no Capítulo 5, e cada vez mais a ponto de ameaçar o princípio fim-a-

fim e a neutralidade, juntamente com as preocupações de segurança e vigilância.

Como mencionado no Capítulo 2, a Internet, como toda tecnologia, é um

sistema artificialmente criado de acordo com a necessidade e filosofia de seus criadores.

Passamos a analisar as forças de influência com um pouco mais de detalhe.

3.3. O vetor militar: resistência, flexibilidade e alta performance

Até 1970, o United States Department of Defense´s Advanced Research

Projects Agency (“ARPA”) havia financiado diversos projetos de conexão remota entre

computadores em universidades e outros campos de pesquisa de computação espalhados

pelos Estados Unidos da América. Foi então criada a proposta de conectar esses campos

através da rede denominada ARPANET, projeto a ser gerenciado pelo cientista Lawrence

Roberts. A pequena empresa de acústica e computação Bolt, Beranek and Newman

(“BBN”) venceu a licitação pelo contrato para construir os nódulos de rede. Em 1967, o

34

pesquisador Paul Baran foi contratado como consultor sobre como o grupo de

planejamento da ARPANET deveria prosseguir com a rede distribuída e comutação de

pacotes.

Valores militares influenciaram muito o projeto, desenvolvimento e uso

tanto da ARPANET como da Internet. Para os militares, a resistência, flexibilidade e alta

performance deveriam prevalecer sobre objetivos comerciais como baixo custo,

simplicidade ou apelo de interface ao usuário final.

Vale lembrar que, na década de 1960, a relação entre os Estados Unidos da

América e a então União Soviética era delicada. A União Soviética havia lançado o satélite

Sputnik em 1957, causando alarde nos Estados Unidos da América sobre um possível

atraso tecnológico e assim aumentando a mobilização de investimento estatal em ciência e

tecnologia. Havia uma preocupação quanto à necessidade de um sistema de comunicações

que resistisse a ataques inimigos. A ARPA foi uma das várias respostas dos Estados

Unidos da América para desafios de ciência e tecnologia da Guerra Fria. Fundada em

1958, a ARPA tinha como missão a manutenção da liderança norte-americana em relação a

seus rivais militares ao perseguir projetos de pesquisa que prometessem avanços

significativos em campos relacionados à defesa. A capacidade do US Department of

Defense em comandar amplos recursos técnicos e econômicos para pesquisa em

computação durante a Guerra Fria foi um fator crucial para o lançamento da Internet.

Nesse contexto, um sistema de “comunicação distribuída” foi desenvolvido

por Paul Baran. A comunicação distribuída é distinta da comunicação convencional (como

em uma rede telefônica), na qual a transferência de dados é concentrada e hierárquica,

usando centrais locais que atendem diversos usuários. Desse modo, um único ataque a uma

central local seria suficiente para desconectar diversos usuários. Já um sistema distribuído

conta com muitos nódulos e várias conexões ligadas a cada nódulo. Essa alta redundância

dificulta cortar o serviço dos usuários através de ataques, pois a destruição de um nódulo

não impediria o fluxo de mensagens, que podem usar uma rota alternativa, já que não

existe um caminho pré-estabelecido para a comunicação.

Outra idéia conceitual na rede de Baran é o uso de comutação de pacotes

(packet switching)37. No sistema, uma mensagem poderia ser qualquer coisa, desde uma

37 Simultaneamente, na Inglaterra, esforços em conceitos semelhantes à comutação de pacotes estavam sendo

realizados através do interactive computing, que enfrentava o problema de altos preços dos equipamentos de computação através de compartilhamento remoto de seus recursos.

35

fala digitalizada a um comando de computação. Como as mensagens seriam todas

transmitidas de forma digital, elas poderiam ser manipuladas de múltiplas formas. Ao invés

de enviar mensagens inteiras de diferentes tamanhos através da rede, Baran propôs que as

mensagens fossem divididas em pacotes, unidades de tamanho previamente fixado.

Mensagens pequenas poderiam ser enviadas em um único pacote. Mensagens maiores

exigiriam múltiplos pacotes. Em cada um, um cabeçalho especificaria o endereço do

destinatário e remetente, assim como outras informações. Os nódulos de transmissão

usariam a informação do cabeçalho para determinar qual caminho cada pacote deveria

seguir para o seu destino. Visto que cada pacote é encaminhado independentemente, os

diferentes pacotes que compõem uma mensagem grande podem ser enviados por diferentes

caminhos. Quando os pacotes chegam ao seu destino, a informação dos cabeçalhos é usada

para ordenar os pacotes de modo a compor a mensagem completa.

Desse modo, as informações não apenas seguiam diversos caminhos mas

também seriam divididas em pequenas porções. Isso fazia com que uma eventual

interceptação não fosse suficiente para a compreensão da mensagem, pois apenas uma

parte seria obtida se outros pacotes tivessem seguido por um caminho não sujeito à escuta.

Além disso, os militares conseguiram a resistência a ataques e flexibilidade com alta

eficiência.

3.4.O vetor da comunidade acadêmica de ciências da computação

O grupo que recebeu recursos e incentivo dos militares para o

desenvolvimento das redes da ARPA consistia de cientistas acadêmicos, que incorporaram

seus próprios valores de coleguismo, descentralização de autoridade e troca aberta de

informação no sistema desenvolvido.

Uma coisa que os principais cientistas de computação tinham em comum

era a crença de que as capacidades de uma nova geração de velozes computadores

poderiam ser usadas para transcender os limites de sistemas de comunicação até então

existentes, o que não era facilmente compreendido por um outro grupo, de engenheiros da

indústria de comunicação. Os engenheiros eram céticos em acreditar que computadores

suficientemente rápidos e baratos seriam disponibilizados no mercado. Portanto, as

36

técnicas de comutação de pacotes, apesar de ligadas à indústria de comunicação, foram

desenvolvidas e aperfeiçoadas pelos cientistas de computação, e não pelos engenheiros de

telecomunicações.

Apesar dessa informação parecer uma mera curiosidade, ela ajuda a

entender os valores que nortearam a forma de agir da comunidade dos cientistas de

computação (conhecidos como Netheads38), muito diferente do que talvez seria feito se a

Internet fosse desenvolvida por engenheiros de telecomunicação (conhecidos como

Bellheads), que representam interesses das grandes empresas de telecomunicação mundial.

Por não estar sob a influência de interesses da indústria de telecomunicação,

a arquitetura da rede foi desenvolvida para acomodar uma variedade de tecnologias

computacionais indistintamente. Isso implicou em um estilo de gerenciamento disperso,

informal e inclusive conferiu ao sistema da Internet a habilidade de adaptação a um

ambiente imprevisível.

Esses valores trazidos pela comunidade acadêmica são altamente

responsáveis pela inovação permitida pela Internet. O vetor acadêmico estimulou a própria

construção do princípio fim-a-fim, pois os usuários eram ao mesmo tempo produtores e

criaram aplicações inovadoras, como o e-mail. Em dezembro de 1970 foi concluído o

primeiro protocolo de comunicações da ARPANET chamado Network Control Protocol

(NCP), que posteriormente seria substituído pelo TCP/IP. Quando a ARPANET terminou

de implementar o NCP entre 1971 a 1972, os usuários da rede finalmente puderam

começar a desenvolver aplicações, como o correio eletrônico (e-mail), que se tornou a

principal aplicação para a rede durante uma década.

Curiosamente, o e-mail não era uma aplicação que havia sido planejada

pelos produtores da rede. Ao invés de ser um produto de planejamento centralizado, foi

desenvolvido pelos próprios usuários.

38 Steve Steinberg assim descreve a diferença entre Netheads e Bellheads (1996): "Em termos amplos, Bellheads são as pessoas originais da telefonia. Eles eram os engenheiros e gerentes que cresceram sobre o olho vigilante da Bell e que continuam a a seguir as práticas do Sistema Bell pelo respeito a seu legado. Eles acreditam em resolver problemas com técnicas dependentes de hardware e em controle de qualidade rigoroso - ideais que formam a base de nosso robusto sistema de telefonia e que são incorporados ao protocolo ATM. Em oposição aos Bellheads estão os Netheads, os jovens que conectaram os computadoes ao redor do mundo para formar a Internet. Esses engenheiros vêem a indústria de telecom como mais uma relíquia que será derrubada pela marcha da computação digital. Os Netheads acreditam em software inteligente ao invés de hardware de força bruta, em roteamento flexível e adaptativo ao invés de controle de tráfego fixo. São esses ideais, afinal de contas, que permitiram que a Internet crescesse tão rapidamente e que estão incorporados no IP - o Internet Protocol". (tradução livre)

37

3.5. Produtores e usuários

Muito do sucesso da Internet pode ser atribuído à habilidade dos usuários

em moldar a rede para que atendesse aos seus objetivos, o que foi permitido pelo princípio

fim-a-fim.

Tipicamente, os usuários são retratados como consumidores agindo em um

mercado, escolhendo um serviço ou produto em detrimento de outros. Geralmente se

assume que os usuários se envolvem apenas após uma tecnologia ser desenvolvida. Mas na

ARPANET não havia distinção pois os consumidores eram os pesquisadores que a usavam

em seu trabalho e portanto estavam diretamente envolvidos em seu desenvolvimento39.

Assim, na rede, os usuários não mais são necessariamente puros

consumidores passivos da tecnologia, mas podem tomar um papel muito ativo na definição

de suas características. De fato, a cultura da Internet desafia a distinção entre produtores e

usuários.

O papel dual de usuários e produtores fez com que fosse adotado um novo

paradigma para gerenciar a evolução do sistema: ao invés de centralizar a autoridade de

projeto a um pequeno grupo de administradores de rede, eles deliberadamente criaram um

sistema no qual qualquer usuário com habilidade e interesse poderia criar uma nova

aplicação. Essa abertura está associada ao princípio fim-a-fim e é fundamental para o

estímulo à inovação.

39 Pode-se dizer que mesmo um sistema de fluxo principalmente unilateral de informações, como é a

televisão, cuja transmissão parte da emissora aos telespectadores, possui um sistema de feedback, que é a audiência. Assim, programas que não recebem suficiente audiência são retirados ou modificados, como acontece com tramas e personagens de telenovelas. Porém, com a Internet, um patamar mais avançado de interação é possível. Os usuários da Internet não apenas caracterizam audiência, como podem também publicar conteúdo em home pages, web sites de social networking como o Orkut, compartilhar música e vídeos, publicar fotos e histórias em weblogs, mas, principalmente, ainda criar novos aplicativos. O software ICQ teve papel fundamental no desenvolvimento de sistemas de mensagens instantâneas e criado por um israelense. O software Napster desenvolvido por um adolescente foi responsável pelo aperfeiçoamento conceito de redes peer-to-peer. O software Skype, que revolucionou o conceito de telefonia por Internet, também foi criado por pequenos empreendedores. Assim, a Internet possibilita um ambiente favorável a pequenos novos competidores (disruptors) mudarem o cenário de dominação das empresas estabelecidas no mercado (incumbents).

38

O ambiente de coleguismo merece ser destacado. Os cientistas também

usavam a ARPANET para compartilhar software. A maior parte dos projetos colaborativos

envolvia a transferência de arquivos de documentos ou programas. Procedimentos de

transferência de arquivos estimulavam a troca informal de arquivos sem a necessidade de

consentimento expresso do autor original, que tacitamente concordava previamente com o

compartilhamento. Sem um potencial de mercado nesta fase inicial, não havia estímulo

para que os usuários-produtores escondessem informações uns dos outros de forma

proprietária: ao contrário, sua reputação na comunidade científica aumentaria conforme

contribuições positivas fossem feitas e para isso a colaboração e troca aberta de

informações é essencial40.

3.6. O surgimento do e-mail

A ARPANET havia sido originalmente implementada para dar aos

pesquisadores acesso a recursos de computação que eram presumidamente escassos.

Ironicamente, porém, muitos locais com ricos recursos informáticos pareciam estar

procurando em vão por usuários. Conforme a década de 70 passava, a demanda para

recursos remotos acabou caindo. Apesar de vários experimentos produtivos usando

hardware e software remotos estarem em andamento, a maioria dos membros da

comunidade ARPANET não estava usando a rede da forma originalmente intencionada,

que era o compartilhamento de recursos, para executar programas em locais remotos.

Se a ARPANET apenas tivesse valor no uso da computação remota,

provavelmente hoje seria esquecida. Porém, a inovação era estimulada e o e-mail surgiu e

rapidamente se tornou o serviço mais popular e influente, ultrapassando todas as

expectativas. Ele tinha muitas vantagens em relação ao serviço de correios ou telefonia.

Era praticamente instantâneo e não exigia que os comunicantes estivessem

simultaneamente conectados, como em uma ligação telefônica.

40 Esse aspecto de colaboração até hoje é vibrante em projetos sem uma finalidade lucrativa direta, como por

exemplo a Wikipedia, uma enciclopédia criada colaborativamente pelos usuários da Internet e o Linux, um sistema operacional criado por programadores espalhados pelo mundo sem remuneração direta.

39

A popularidade do e-mail não tinha sido prevista pelos planejadores da

ARPANET. O próprio organizador da ARPANET, Lawrence Roberts, não havia incluído o

e-mail nos planos originais da rede. Em 1967 ele havia dito que a habilidade de enviar

mensagens entre usuários não era uma motivação importante para uma rede de

computadores científicos (ABBATE, 1999, p.85). Entretanto, o e-mail e as listas de

mensagens foram cruciais para criar e manter um sentimento de comunidade entre usuários

ARPANET.

A surpresa do e-mail revela a importância da manutenção de um ambiente

de inovação de baixo para cima (bottom-up) em que o planejamento não seja hierárquico e

centralizado, pois o planejador raramente consegue superar o potencial que a base de

usuários coletivamente tem de criar e inovar41. Além disso, existe o risco de que aquele

que tem o controle utilize esse poder como um incumbent42 preocupado exclusivamente

com seus próprios interesses evitando novos modelos concorrentes e assim buscando

proteger seus mercados.

Através de inovações descentralizadas e milhares de escolhas individuais, a

antiga idéia de compartilhamento remoto de recursos que propulsionou o projeto

ARPANET foi gradualmente substituída pela idéia de rede não como meio de compartilhar

recursos tecnológicos, mas como um meio para aproximar pessoas. O e-mail foi a base

para a criação de comunidades virtuais pela rede. Mais e mais, pessoas dentro e fora da

comunidade ARPA viam a ARPANET não como um sistema de computação mas como

um sistema de comunicação.

3.7. Meritocracia: Abertura, informalidade, descentralização, “rough consensus and

running code”

41 Tais argumentos são também explorados em Benkler (2002) e Johnson (2003). 42 Em teorias que discutem inovação, o incumbent é aquele que já tem um mercado consolidado com a oferta

de determinados produtos e serviços. Seus novos concorrentes, os disruptors, procuram desenvolver novos produtos e serviços que tenham um diferencial suficiente para ocupar a posição de mercado do incumbent. Para mais detalhes sobre a disputa entre incumbents e disruptors, recomenda-se a leitura de The Innovator`s Dilemma: When New Technologies Cause Great Firms to Fail, de Clayton Christensen, Harvard Business School Press, Cambridge, 1995.

40

Durante os anos 70, Vinton Cerf e Robert Kahn estabeleceram um grupo de

conselho de especialistas em rede chamado Internet Configuration Control Board (ICCB)

para debater os méritos dos protocolos do sistema em evolução. Se houvesse consenso, o

protocolo em exame seria declarado um padrão oficial.

Como se nota, esta fase é caracterizada por um baixo nível de governança e

um poder concentrado nas mãos desses especialistas.

Essa estrutura de administração foi reestruturada entre 1983 a 1985 para

ampliar a participação em decisões sobre o projeto da rede. O pequeno círculo da ICCB foi

substituído por um órgão mais aberto chamado de Internet Activities Board (IAB), que foi

presidido pelo cientista David Clark do Massachusetts Institute of Technology (MIT) por

muitos anos. No IAB, as vozes líderes eram principalmente provenientes dos membros das

comunidades de pesquisa que colaboraram na construção da ARPANET, como o US

Department of Defense, o MIT e a Bolt, Beranek and Newman (BBN) por exemplo. Porém,

a filiação era aberta a qualquer pessoa, em qualquer lugar do mundo, que tivesse tempo,

interesse e conhecimento técnico para participar. Apesar de aumentar aqui o nível de

representatividade, saindo do círculo clerical de especialistas em computação para uma

maior comunidade, ainda assim a forma de deliberação dependia fundamentalmente de

argumentos técnicos colocados nas discussões.

O Internet Activities Board - IAB se tornou um fórum para a discussão de

todos os aspectos da política da Internet, e seus encontros se tornaram altamente populares

na comunidade de redes. Em 1989, o número de pessoas participando de suas atividades

havia crescido às centenas e seus líderes decidiram dividir suas atividades em um Internet

Engineering Task Force – IETF (que cuidaria de desenvolvimento de protocolos e outras

preocupações técnicas) e uma Internet Research Task Force (que seria dedicada ao

planejamento técnico de longo prazo). Padrões para a Internet foram definidos por

consenso, após discussão entre todas as partes interessadas e após os protocolos propostos

terem sido testados na prática, e eles continuaram a ser publicados eletronicamente na

forma de Requests for Comments – RFCs.

Apesar da abertura e transparência da IETF caracterizada sobretudo pelos

RFCs e na forma de realização de suas reuniões, o discurso era realizado em base

predominantemente técnica, o que foi inclusive institucionalizado pela descrição do RFC

3160 intitulado "The Tao of IETF: A Novice's Guide to the Internet Engineering Task

41

Force"43. De forma mais radical, David Clark havia ainda pregava a meritocracia: formas

de representação política eram rejeitadas, e o suporte era dado a um quase-consenso e

código de programação funcional, ao dizer “Rejeitamos reis, presidentes e eleições.

Acreditamos em quase-consenso e código funcional” (tradução livre)44, o que fazia um

certo sentido na fase inicial da Internet em que uma governança mais sofisticada ainda não

era demandada. A IETF será analisada em maior detalhes no Capítulo 7.

Com a privatização e a expansão da Internet no mundo, cada vez mais era

politicamente necessário mover a administração técnica do sistema para longe das mãos do

governo norte-americano (ABBATE, 1999, p. 207). Em janeiro de 1992, a Internet Society

– ISOC, uma organização sem fins lucrativos, passou a supervisionar a IAB e a IETF.

Adicionalmente, a ISOC teria a tarefa de disseminar informação sobre a

Internet ao público geral. A ISOC, IAB e IETF incluíam membros de todos os setores da

comunidade Internet, e a participação internacional nesses três grupos aumentava ao longo

dos anos 90.

Com todas essas mudanças, as estruturas administrativas e técnicas da

Internet permaneceram altamente descentralizadas. Nenhuma autoridade controlava a

operação da Internet como um todo.

Era difícil o desenvolvimento de políticas de administração que pudessem

satisfazer a todos os grupos de interesse (ABBATE, 1999, p. 208). As estruturas

administrativas da Internet estavam em constante mudança desde a privatização e

diferentes soluções estavam sendo tentadas. Abbate (1999) já previa que a autoridade da

ISOC, da IAB, e da IETF permaneceria incerta, visto que muito da arquitetura da Internet

havia sido desenvolvida sob os auspícios do governo dos Estados Unidos da América. A

forma como as entidades privadas assumiram funções é por vezes obscura, sem

documentos formais que indiquem claramente a fonte de sua competência. Mais ainda, a

representatividade de tais entidades também não é clara. Para Abbate, quanto mais a

Internet se transforma em um recurso internacional, mais a autoridade dos Estados Unidos

da América em assuntos administrativos serão colocados em desafio. Sua visão

comprovou-se correta, por exemplo, no caso da administração dos nomes e números

analisada no Capítulo 5.

43 Disponível em: <http://www.ietf.org/rfc/rfc3160.txt>. Acesso em 16.01.2006. 44 Disponível em <http://www.w3.org/Talks/1999/0105-Regulation/all.htm>. Acesso em 20.02.2006.

42

3.8. O vetor comercial

Os interesses corporativos nas primeiras fases da Internet eram

insignificantes, porque a ARPANET expressamente proibia o uso comercial da rede. Os

grandes interesses comerciais são notados na segunda metade da década de 1990, com as

disputas sobre os nomes de domínio (episódios conhecidos como DNS Wars), quando a

popularização da Internet criou uma grande base de usuários que seriam potenciais

consumidores.

Mas, mesmo antes de tratar das DNS Wars, vale mencionar um episódio de

interesse privado corporativo contra o interesse comum: o código IMP.

A BBN estava desenvolvendo as principais máquinas da rede, os Interface

Message Processors (IMPs) que cuidariam da transmissão dos pacotes. Os primeiros

quatro computadores a serem conectados com instalação de IMPs estavam em quatro

universidades, formando a inicial ARPANET.

O contrato da BBN com a ARPANET representava uma chance de começar

bem na área de networking. Para preservar sua vantagem estratégica pelo fato de ter

desenvolvido o IMP, a BBN tendeu a tratar os detalhes técnicos do IMP como segredos

industriais. Também havia a argumentação de que se a BBN liberasse demasiada

informação sobre o IMP, estudantes nos centros de computação poderiam tentar fazer

melhorias não autorizadas no software IMP, o que causaria problemas ao sistema.

Uma das mais calorosas discussões na comunidade ARPANET surgiu

quando a BBN se recusou a dividir o código fonte dos programas IMP com outros

contratados, que protestaram dizendo que precisavam saber como os IMPs eram

programados para que pudessem realizar seu trabalho efetivamente. As autoridades da

ARPA eventualmente apresentaram sua oposição e estabeleceram que a BBN não tinha

direitos sobre o código fonte e que o deveriam disponibilizar gratuitamente.

Independentemente dos termos contratados entre a ARPA e a BBN, em

última instância a ARPA utilizou seu poder de barganha para fazer com que o software

desenvolvido pela empresa BBN saísse da esfera proprietária. Diversos outros protocolos e

43

padrões de Internet que seguiram foram mantidos abertos, mas não há atualmente uma

estrutura jurídica que garanta que isso continue no futuro.

3.9. O projeto de rede fim-a-fim (end-to-end network design)

Na prancheta de projeto, eram inúmeras as possibilidades para o formato da

rede. Dessas possibilidades, somente se sabia é que a melhor escolha deveria ser aberta,

adaptável e acessível à inventividade ao máximo possível. Para isso, a melhor abordagem

era definir protocolos simples, limitados em escopo, o que daria flexibilidade para os

possíveis usos da rede.

Projetistas de redes geralmente fazem uma distinção entre os computadores

que estão localizados nas pontas ou “fins” (ends) da rede e os computadores localizados

dentro da rede. Os computadores no fim das redes são máquinas através das quais os

usuários interagem diretamente a fim de obter acesso, como um laptop, um desktop, um

aparelho de telefone celular. Os computadores “dentro” da rede são intermediários que

estabelecem os elos a outros computadores e portanto formam a própria rede. O

maquinário de um provedor de acesso à Internet por exemplo pode ser considerado um

computador de dentro da rede.

Os protocolos de Internet foram desenvolvidos para fornecer um canal

neutro e transparente para a mais ampla variedade possível de serviços de informação. Na

Internet, o trabalho da rede está limitado a transmitir unidades de dados da maneira mais

eficiente possível, enquanto a responsabilidade por aplicativos de software e outras funções

de nível mais alto, como autenticação e encriptação, é delegada aos dispositivos a ela

conectados. Em outras palavras, a maior parte da inteligência e responsabilidade está

localizada nos dispositivos localizados nos fins da rede, e não na rede em si. Tal definição

de “end-to-end” está baseada no parágrafo 2.3 do RFC 1958 “Architectural Principles of

the Internet”.

Ou seja, basicamente, o princípio fim-a-fim defende que a "inteligência" na

rede deve ser localizada no topo de um sistema de camadas, em seus fins, nos quais os

usuários colocam informação e aplicações. A rede meramente encaminha os pacotes de

44

dados e, devido à sua atual arquitetura, não discrimina ou diferencia o tráfego gerado pelas

aplicações.

Lessig (2001, p. 36) aponta três conseqüências do design fim-a-fim para a

inovação:

Primeiramente, pelo fato das aplicações serem executadas em computadores

no fim da rede, inovadores com novas aplicações precisam apenas de conectar seus

computadores à Internet para que elas funcionem. Nenhuma mudança nos computadores de

dentro da rede é necessária. Se um desenvolvedor quiser usar a Internet para fazer ligações,

é apenas necessário desenvolver a aplicação e fazer a divulgação para que usuários a

adotem e então a Internet transportará os dados produzidos pelo programa para realizar as

ligações “telefônicas”. Essa aplicação pode ser escrita e enviada a outra pessoa com quem

se deseja comunicar na outra ponta da rede. Ambos instalam o programa e começam a

conversar.

Em segundo lugar, pelo fato de o design não estar otimizado para qualquer

aplicação particular existente, a rede está aberta à inovação não imaginada originalmente.

Tudo o que o Internet Protocol (IP) faz é encontrar uma forma de empacotar e enviar os

dados. Sozinho, ele não empacota e transmite certos tipos de dados com mais eficiência

que outros, em respeito ao princípio da neutralidade. Isso cria problemas para algumas

aplicações, mas cria uma oportunidade para um amplo leque de outras aplicações também.

Ele significa que a rede é aberta para adotar aplicações não originalmente previstas pelos

projetistas.

Finalmente, como o design funciona como uma plataforma neutra (no

sentido que o dono da rede não tem como discriminar certos tipos de pacotes em

detrimento de outros), a rede não rejeita um novo projeto inovador. Se uma nova aplicação

ameaça uma aplicação dominante, não há nada que a rede possa fazer a respeito. A rede

permanece neutra independentemente da aplicação.

3.10. Os conceitos originais de rede

45

A Internet tem uma idéia técnica de pano de fundo chamada open

architecture networking que permite que as diversas redes que se conectarão sejam

desenvolvidas separadamente, cada uma com suas características e de acordo com os

requerimentos de seus usuários.

A idéia de open architecture networking foi introduzida por Robert Kahn

logo após sua chegada à DARPA em 1972. Como o primeiro protocolo de comunicações

da ARPANET, o NCP, apresentava limitações técnicas de controle de erros de transmissão

nos projetos de open architecture networking, Kahn decidiu trabalhar em uma nova versão

do protocolo que atenderia às necessidades encontradas. Tais protocolos se chamariam

Transmission Control Protocol/Internet Protocol (TCP/IP).

Nesse processo, quatro linhas mestras orientaram o trabalho de Kahn:

i) Cada rede separadamente considerada deveria ser independente e

nenhuma mudança interna deveria ser necessária a qualquer uma dessas redes para que ela

pudesse se conectar à Internet;

ii) Comunicações seriam realizadas em uma base de melhor esforço. Se um

pacote não chegasse ao seu destino final, em um curto período deveria ser retransmitido da

fonte;

iii) Caixas pretas seriam usadas para conectar as redes; essas mais tarde

seriam chamadas de gateways e roteadores. Não haveria informação a ser retida nos

gateways a respeito dos fluxos individuais de pacotes passando por eles, e portanto seriam

mantidos simples e evitando adaptação complicada e recuperação de vários modos de erro;

e

iv) Não haveria controle global no nível de operações.

Apesar de parecerem meramente técnicas, essas características contribuem

pela distribuição do controle na Internet e a recente busca por maior poder por parte de

determinados stakeholders tem levado à implementação de modificações a essa

arquitetura. Principalmente nas características (iii) e (iv) o que se busca é usar os

equipamentos da rede para reconhecer cada pacote de dados e então tratá-los de forma

distinta, contrariamente ao princípio da neutralidade.

46

Como a Internet é dinâmica, a substituição de seus padrões, protocolos e

arquitetura é possível. Uma prova desse dinamismo é o caso de transição do NCP para o

TCP/IP.

3.11. A chegada da Defense Communications Agency e a transição para o TCP/IP

A substituição de protocolos é uma possibilidade técnica. Historicamente, já

aconteceu quando da migração do NCP para o TCP/IP, acelerada pela chegada da Defense

Communications Agency – DCA como nova operadora da ARPANET, pois a ARPA já

começava a ser vista como uma agência de pesquisa pequena demais para o sistema que

expandia cada vez mais. Portanto, nada impede que um novo protocolo possa surgir que

melhor atenda aos interesses de agentes mais articulados e poderosos como a indústria de

telecomunicações e entretenimento.

Depois de assumir o controle da ARPANET em julho de 1975, o Defense

Communications Agency começou a reorientar a rede para fora de suas origens de pesquisa

e mais em direção a operações de rotina militar.

Abbate (1999, p. 37) ainda reporta que as preocupações do DCA com

segurança da rede vieram como resposta a tendências de computação dos anos 70, em que

os computadores pessoais começavam a aparecer e ganhar adeptos. Os computadores que

até então estavam, pelo seu alto custo, restritos a líderes da academia, negócios e governo

haviam se tornado mais baratos e podiam ser adquiridos por adolescentes como hobby. A

difusão de computadores para um segmento muito mais amplo da população aumentava o

risco de hackers45 entrarem no sistema militar da ARPANET.

Em março de 1981, foi anunciado que todos os computadores ARPANET

deveriam implementar o TCP/IP em lugar do protocolo NCP até janeiro de 1983. A

transição seria demorada, custosa e trabalhosa. Não apenas os gerentes dos computadores

deveriam se assegurar que as aplicações de rede estariam prontas para produzir pacotes 45 A popularização pode mudar o sentido original de certos termos. Alguns programadores criticam o uso

popular de “hacker” como sinônimo de criminoso tecnológico. Para eles, o termo correto é cracker, sendo que o sentido original de hacker vem de “hack”, cortar caminho dentro de um sistema teoricamente hermético sem intenção maligna, mas sim testando as defesas de modo crítico.

47

com os novos cabeçalhos, mas também escrever software TCP para cada tipo de

computador.

Como o NCP e TCP/IP eram incompatíveis, alguns computadores

executavam ambos os protocolos e atuaram como tradutores entre TCP e NCP durante o

período de transição. Até janeiro de 1983, ambos os protocolos seriam aceitos pelos IMPs,

mas após essa data a BBN configuraria os IMPs para rejeitar pacotes usando o formato

NCP. Aqueles que não haviam criado os software necessários para seus computadores

foram surpreendidos quando a BBN obedeceu a política da ARPA-DCA e foram cortados

da rede. O corte foi uma manobra para forçar todos a completar a transição.

Muitos gerentes de computadores não fizeram a mudança a tempo. Para

manter a rede funcionando, computadores que não estavam corretamente compatíveis com

o TCP/IP receberam autorização especial para operar o NCP enquanto trabalhavam com o

problema. Qualquer ponto de computação que não tivesse se convertido para o TCP/IP e

quisesse se manter conectado era obrigado a enviar uma justificativa, pedindo uma exceção

e apresentando uma data para conversão. Em junho, todos os computadores estavam

usando o TCP/IP e um passo fundamental na evolução da Internet havia sido dado.

Um passo adicional para definir o palco de desenvolvimento de uma

Internet de maior escala com os usuários civis foi segregar os usuários militares da

ARPANET e seus pesquisadores acadêmicos, que estavam coexistindo de modo inquieto

desde que o DCA havia assumido a ARPANET. O DCA e seus usuários militares

enfatizavam uma maior segurança de rede e tinham receios de que os locais acadêmicos

não poderiam ou não teriam intenção em efetivar métodos de controle de acesso restrito.

Abbate (1999, p.137) conta que um gerente da BBN entendia que os acadêmicos gostavam

de acesso aberto pela promoção de partilha de idéias, mas que isso poderia também abrir

margens para ataques. E cada vez mais a ARPANET era entendida como sujeita à intrusão

de usuários não autorizados pois os novos computadores de preço menor e equipados com

modems haviam facilitado o acesso à rede por amadores.

Para proteger os computadores militares dessa ameaça, a ARPANET foi

dividida em duas redes distintas: uma rede de defesa (ainda chamada ARPANET) e uma

rede de operações militares, a MILNET. A ARPANET continuaria a ser desenvolvida com

novas tecnologias, enquanto a MILNET usaria equipamentos com mecanismos de

criptografia e outras medidas de segurança para apoiar funções militares.

48

O dinamismo da Internet é claro no período entre 1973 a 1983. O protocolo

NCP foi substituído pelo TCP/IP, os usuários militares foram divididos em uma rede

segmentada, e a ARPANET se tornou parte de um sistema maior, a Internet, que então

agregava diversas redes e em breve permitiria o uso comercial de seus recursos por sua

política de uso. Nessa evolução, os interesses cresciam, assim como aumentava o número

de interessados. Disputas sobre os padrões e suas conseqüências políticas, econômicas e

culturais, já começavam a ser sentidas. Assim, com o aumento do valor da rede, as futuras

mudanças da Internet seriam mais e mais disputadas.

3.12. Conclusão deste capítulo

Apresentou-se aqui, o segundo pressuposto essencial da dissertação: a

Internet é dinâmica e evolui.

É possível influenciar em seu futuro através da regulação pela arquitetura.

Ela pode ser aberta e estimular criatividade ou ser fechada e impor um modelo de

segurança, divisão geográfica ou uma comunicação mais unilateral e menos interativa.

Para mostrar o aspecto dinâmico, mostraram-se os interesses e valores

predominantes na Internet, em seus primórdios. A apresentação desse cenário original é

necessária para que seja possível realizar, ao final da dissertação, a comparação entre tal

contexto e as tendências de transformação que impulsionam a Internet atualmente.

A Internet começou com um estilo militar que garantia robustez e

flexibilidade. Os acadêmicos colocaram seus valores, como a abertura permitindo que

qualquer um fosse um produtor, o que fez surgir o e-mail e diversas outras inovadoras

aplicações. Os cientistas decidiam por meritocracia, sem organização jurídica.

Merece destaque a mudança cultural na história da Internet, apontada por

Blumenthal e Clark (2001). Os autores identificaram que a Internet originalmente era uma

pequena comunidade de cientistas com grande afinidade e confiança mútua, e que estavam

sob a administração de instituições acadêmicas e governamentais que não permitiam o uso

comercial da rede. Com a entrada de novos stakeholders as expectativas mudaram, o que

49

gerou um movimento de mudança na própria arquitetura da rede para atender aos novos

interesses.

Os padrões, protocolos e princípios aplicáveis a sistemas informáticos são

objeto de alta disputa de controle entre vários atores. Um princípio da Internet, a

característica fim-a-fim, estimulou muita inovação através da rede. Mas tal princípio não é

necessariamente o mais interessante para a indústria que deseja retomar controle.

Entretanto, a rede inteligente pode apresentar benefícios de segurança e estabilidade,

conforme seus defensores.

As características da Internet podem mudar conforme mudam os protocolos.

Já houve mudança de protocolos no passado como o NCP para TCP/IP. Essa mudança

implicou poucos efeitos regulatórios, e foi uma transição sem grandes impactos,

comparada com as mudanças que estão hoje em andamento. No caso de uma mudança do

princípio do fim-a-fim para uma rede com inteligência interna são maiores os efeitos

regulatórios.

É necessário decidir como decisões de mudança de tecnologia gerando

regulação pela arquitetura serão tomadas dentro de níveis adequados de governança.

50

4. COMPETIÇÃO: MODELO TELECOM V. MODELO INTERNET

A maturidade da Internet e das tomadas de decisão

Vista a importância do código na regulação pela arquitetura, a definição de

padrões de código é uma atividade em que as batalhas pelo controle acontecem.

Historicamente, as empresas de telecomunicações, organizadas dentro da

moldura da UIT, conseguiram introduzir o padrão X.25 e reduzir a importância dos

padrões definidos por fabricantes como a IBM. O padrão X.25 não era associado a

qualquer fabricante em particular e dava às empresas de telecomunicação uma maior

independência e acesso a um maior escopo de hardware e software de telecomunicações.

Enquanto o X.25 era flexível em termos de infra-estrutura de hardware e software, ele

criava um monopólio de telecomunicações. Dentro do X.25, as telecomunicações de dados

eram ordenadas principalmente por redes públicas que eram gerenciadas por empresas de

telecomunicações. Como guia, os elaboradores dos padrões da União Internacional de

Telecomunicações – UIT usaram o sistema de telefonia cujos padrões foram regulados pela

UIT por décadas. O X.25 assim propunha que as redes de computadores fossem

organizadas nacionalmente e conectadas umas às outras nas bordas internacionais.

Esse padrão centralizado era diferente do que a comunidade da Internet

estava propondo através do TCP/IP. O TCP/IP acabou se mostrando muito mais flexível

para a integração de redes heterogêneas. Ele permitia que os usuários desenvolvessem uma

ampla variedade de redes privadas ao mesmo tempo em que elas poderiam comunicar

umas com as outras. O sucesso do TCP/IP era um sinal de erosão dos monopólios

nacionais de telecomunicação e a emergência de um sistema global de telecomunicações.

Ao lado da disputa TCP/IP e X.25 houve uma tentativa internacional de

introduzir o modelo Open System Interconnection, que, apesar de não ter sido amplamente

adotado como padrão, introduziu uma abordagem de múltiplas camadas para rede de

computadores e trouxe um impacto positivo no desenvolvimento de uma abordagem

moderna a esse campo.

51

4.1. Competição na definição de padrões (standards)

Os protocolos TCP/IP foram desenvolvidos na década de 70 e se tornaram

um padrão amplamente reconhecido na década de 80. Mas, no mesmo período, a crescente

popularidade de redes de computadores levou órgãos internacionais de padronização a

propor outros padrões formais para protocolos de rede.

Os padrões (standards) compõem tema político e comercial por representar

uma forma de controle sobre a tecnologia e conseqüentemente fazem parte do processo de

regulação pela arquitetura.

Padrões comuns garantem que componentes de diferentes fabricantes

trabalhem em conjunto. Um mercado de produtos compatíveis permite que consumidores

escolham produtos a partir de preço ou performance, ao invés de apenas compatibilidade,

aumentando seu poder de barganha.

Grandes corporações como a International Business Machines – IBM já

tentaram proteger seus mercados ao manter secretos seus padrões de produtos internos de

modo a dificultar que outros concorrentes oferecessem produtos compatíveis. Os padrões

comuns tendem a remover barreiras de incompatibilidade, facilitando a entrada de

pequenos competidores. Como a maior parte dos governos nacionais ativamente promove a

competitividade de suas indústrias domésticas, os padrões técnicos que afetam mercados

também podem virar assunto político, como no caso da TV digital no Brasil46.

Padrões técnicos vêm de diversas fontes. Algumas vezes a primeira versão

de uma tecnologia a ter sucesso no mercado é que acaba definindo o padrão, como

aconteceu com o posicionamento das teclas na máquina de escrever QWERTY47. Tais

padrões são padrões “de facto”: não têm uma força legal, mas acabam sendo usados ampla

e espontaneamente. Um dos mais fortes padrões “de facto” para as redes de computação

acabou sendo o protocolo TCP/IP da ARPA.

46 Cf. Informativo Intervozes – TV Digital. Saiba por que você precisa participar desse debate. Intervozes –

Coletivo Brasil de Comunicação Social. Disponível em: <http://www.intervozes.org.br/arquivos/TVDigital.pdf>. Acesso em 16.01.2006.

47 O QWERTY é o layout de teclados mais utilizado hodiernamente e seu nome é derivado das primeiras seis letras na primeira linha de teclas.

52

Abbate aponta uma importante fonte de padrões “de facto”: os fabricantes

de computador. Nos anos 60 e 70 os fabricantes ofereciam várias soluções parciais para

conectar suas máquinas, mas elas nunca eram sistemáticas; somente a IBM tinha centenas

de produtos de comunicações com dezenas de diferentes protocolos. Na metade dos anos

70 vários dos grandes fabricantes de computadores começavam a oferecer sistemas

completos de rede. Porém, diferentemente da ARPANET, esses sistemas eram

proprietários, como o Systems Network Architecture – SNA da IBM, o Xerox Network

Services da Xerox Corporation e o Digital Network Architecture da Digital Equipment

Corporation, projetados para funcionar apenas na própria linha de computadores do

fabricante. As especificações técnicas eram freqüentemente mantidas em segredo, e uma

taxa de licença era cobrada pelo uso dos protocolos.

Padrões proprietários tendem a beneficiar grandes fabricantes e pouco

contribuem para aumentar a compatibilidade entre diferentes produtos. Para lidar com

essas fraquezas, usuários ou fabricantes de uma nova tecnologia freqüentemente tentam

estabelecer padrões formais públicos. Padrões formais públicos são definidos por

organizações autorizadas em nível nacional ou internacional. Diferentemente da maioria

dos padrões que emergem do setor privado, os padrões formais públicos são criados com a

participação de usuários assim como de produtores, de forma que uma companhia

individualmente considerada não tem suficiente controle técnico ou econômico. Órgãos

públicos de padronização freqüentemente aguardam até que uma tecnologia fique em uso

por algum tempo e os prós e contras de diferentes projetos fiquem aparentes antes de

escolher um padrão. Porém, em outros casos, especialmente quando a existência de

múltiplos e conflitantes padrões criaria incompatibilidade ou grandes custos de conversão,

as organizações tentam aprovar padrões antes de uma tecnologia ficar firmemente

estabelecida.

No tocante a redes de computadores, a situação de padrões públicos nos

anos 70 era relativamente complexa. Havia uma confusa hierarquia de grupos de padrões

nacionais e internacionais em constante competição por poder sobre padrões de

comunicação de dados.

David Bollier (2003, p. 105) identifica uma importância de padrões abertos

para a Internet, ao argumentar que os padrões tecnológicos são tipicamente projetados por

empresas para reforçar suas posições estratégicas. A IBM dominava a computação nas

53

décadas de 60 e 70 utilizando protocolos proprietários, assim como a Xerox, Digital

Equipment, Burroughs, Honeywell e outras empresas.

Bollier (2003) entende os padrões técnicos como uma forma de política e

poder e por isso voltados aos interesses de mercado das empresas e não necessariamente ao

interesse público.

Além disso, ele aponta como uma contribuição fundamental trazida pela

Internet, foi uma base comum de protocolos técnicos não-proprietários, o que impedia uma

empresa individualmente considerada de se apropriar da Internet ou de algum de seus

componentes básicos. Os padrões abertos não fizeram com que o poder estratégico ficasse

na mão nem dos grandes fabricantes de computação nem das empresas de telefonia, mas

sim em favor dos usuários.

O risco que se apresenta diante dessa riqueza apresentada pelos padrões

abertos é que não há nada intrinsecamente relacionado às redes de computadores que

exijam protocolos comuns. A arquitetura da Internet, conforme retratado neste Capítulo, é

resultado de escolhas da ARPANET que hoje estão atreladas ao projeto de hardware e

software. A Internet poderia, ao contrário, ser projetada para oferecer uma estrutura de

controle individual, facilitação de interceptação de e-mail ou exigir necessária certificação

de identidade para prosseguir com a conexão. Considerado o aspecto dinâmico da Internet,

é necessária cautela antes de aprovar mudanças que impliquem em padrões menos

adequados ao interesse público global.

4.2. Definição internacional de padrões formais públicos

Internacionalmente, duas grandes organizações dividiam autoridade sobre

padrões de networking.

Uma era a Consultative Committee on International Telegraphy and

Telephony (CCITT) da União Internacional de Telecomunicações – UIT48. O CCITT tinha

uma reunião de plenário a cada quatro anos na qual os membros votavam sobre padrões

48Hoje substituída pela ITU-T. Disponível em: <http://www.itu.int/ITU-T/>. Acesso em 16.01.2006.

54

propostos e identifica temas para maior estudo. Os padrões da CCITT são oficialmente

denominados Recomendações, e em teoria não são vinculantes. Na prática, porém, são

adotados automaticamente como padrões nacionais por muitos países membros da UIT. A

maioria dos países está representada no CCITT através de suas prestadoras nacionais de

telefonia, que são estatais.

Como a CCITT sempre foi dominada pela indústria de telecomunicações

(ABBATE, 1999, p. 150), sua abordagem para networking de dados era baseada na

experiência dos membros em telefonia ao invés de computação, o que colocava em

algumas vezes a CCITT em conflito com a comunidade computacional.

A outra grande autoridade sobre padrões de networking era a International

Standards Organization – ISO, órgão fundado em 1946 para coordenar padrões

internacionais para uma variedade de indústrias. Os padrões da ISO são escritos pelos seus

Grupos de Trabalho. Apesar de abertas a representantes interessados dos governos,

academia e usuários, os Grupos de Trabalho tendem a ser dominados por fabricantes de

computação, que têm tanto um interesse forte na definição dos padrões para suas próprias

indústrias e suficientes recursos financeiros para enviar empregados especialistas para

participar das atividades de padronização. A ISO circula suas Minutas de Padrão (Draft

Standards) entre todos os países membros para comentários e revisão e, quando existe

aprovação geral, a minuta é oficialmente designada um padrão internacional. Assim como

os padrões CCITT, os padrões ISO são automaticamente adotados em muitos países.

A complexidade do sistema de padrões públicos para redes de computadores

reproduzia a complexa teia de grupos de interesse sobre a tecnologia emergente. Grupos

competidores como europeus e norte-americanos, por exemplo, ou então fabricantes de

computação e empresas de telefonia se dirigiam às suas organizações favoritas de

padronização para a criação de especificações através das quais esperavam controlar o

desenvolvimento futuro de networking. O resultado foi uma Babel de pretensos “padrões”

incompatíveis e concorrentes.

Os esforços empreendidos pela ISO e o CCITT para criar padrões

internacionais de rede trouxeram controvérsias. Os debates sobre padrões de rede

freqüentemente foram conduzidos de modo a parecer puramente técnicos, mas o exame

cuidadoso revela agendas econômicas e políticas por trás desses argumentos, como

apontado por Bollier (2003). A discussão sobre os padrões teve motivos suficientes para

ser tão calorosa, conforme relata Abbate (1999, p. 152), porque a Internet e seus criadores

55

não mais operavam no isolado mundo da pesquisa de defesa interna; eles tinham entrado

na arena da política internacional e comercial, e os apoiadores da tecnologia Internet teriam

que se adaptar a essa realidade.

4.3. Recomendação X.25 e a competição entre a Trans-Canada Telephone System e a

International Business Machines - IBM

A primeira grande competição sobre padrões de redes de dados era sobre o

mercado para produtos de rede, que poderia ser controlado por fabricantes de

computadores ou por empresas de telefonia (ABBATE, 1999, p. 152). A comunidade da

Internet sentia que as empresas de telefonia estavam tentando usar seus novos padrões para

impor sua própria visão de um sistema mundial de rede. Essa visão batia de frente com o

modelo Internet de rede em vários aspectos importantes como a centralização e localização

da inteligência. Para as telefônicas, a rede deveria ser centralizada, com a inteligência

internalizada na rede. Para os cientistas de computação, a rede deveria ser descentralizada

e a inteligência localizada nos fins da rede.

As empresas de telefonia viam a comunicação de dados como simplesmente

uma extensão da telefonia. Conforme o aumento de computadores acontecia entre os anos

60 e 70, as empresas de telefonia dos países industrializados viam que um mercado de

transmissão de dados estava se configurando. Apesar de no início servirem apenas para

grandes cidades, tinham o potencial de crescer tanto quanto as redes de telefonia, e as

empresas de telefonia já previam que poderiam até interconectar seus sistemas para lidar

com tráfego de dados internacional. Os administradores das telefônicas perceberam que se

não entrassem em acordo comum sobre as técnicas de rede haveria um risco sério de criar

sistemas incompatíveis que não poderiam se interconectar facilmente.

Em 1973 o CCITT começou a estudar a questão sobre os padrões para redes

públicas de dados, esforço que se acelerou quando ficou claro que as redes seriam

estabelecidas com ou sem padrões CCITT. As empresas de telefonia preferiram criar seus

próprios padrões pois não queriam basear suas redes nos produtos proprietários das

56

fabricantes de computadores, o que poderia as aprisionar a comprar equipamento de rede

de um único fornecedor. Elas tinham um especial medo de que a IBM usasse sua fatia de

mercado de computadores global para fazer seu modelo chamado Systems Network

Architecture – SNA um padrão “de facto”.

Tensões entre as telefônicas e a IBM chamaram atenção em outubro de

1974, quando a empresa pública de telecomunicações canadense se levantou publicamente

contra o que via como uma prática de monopólio da IBM. A Trans-Canada Telephone

System – TCTS tinha começado o trabalho em uma rede de comutação de pacotes chamada

Datapac, para o que estava começando a desenvolver seus protocolos. Logo após esse

esforço começar, os protocolos SNA da IBM ficaram disponíveis e, como a rede Datapac

usava principalmente computadores da IBM, a adoção de SNA era um caminho óbvio para

a TCTS. Mas, ao invés de adotar os padrões proprietários da IBM, o governo canadense

divulgou uma declaração de que estava publicamente buscando protocolos específicos de

rede que fossem compatíveis com uma variedade de equipamentos concorrentes.

Isso foi interpretado pelo mundo de comunicação de dados como um ataque

direto à política da IBM de manter os protocolos secretos e incompatíveis com produtos de

rivais. Enquanto a TCTS tentou convencer a IBM a modificar seus protocolos para atender

aos requisitos do Canadá, a IBM exigia que a empresa de telefonia aceitasse seu protocolo

SNA, dizendo que não fazia sentido modificar seus produtos.

Em resposta ao impasse entre o governo canadense e a IBM e o rápido

desenrolar de desenvolvimento de redes públicas, um grupo ad hoc dentro da CCITT

decidiu criar protocolos próprios para redes públicas de dados. Esse grupo foi conduzido

por representantes das empresas de telecomunicação do Canadá, França e Inglaterra, países

que estavam desenvolvendo suas próprias redes de dados e também por representantes da

Telnet, uma rede de dados comercial norte-americana que era uma cisão da ARPANET. O

grupo começou a trabalhar em 1975 em um conjunto de três protocolos que eles chamaram

de Recommendation X.2549, aprovado em 1976.

As empresas públicas de telecomunicações rapidamente incorporaram o

X.25 em suas nascentes redes de dados. Com apoio internacional para o novo padrão, as

telefônicas puderam pressionar os fornecedores de computadores a fornecer hardware e

software funcional com o X.25 para a construção dessas novas redes públicas de dados.

49 X significava o código da CCITT para standards de comunicação de dados.

57

Alguns fabricantes deram as boas vindas ao X.25, que criava um mercado

grande e homogêneo de produtos de comunicações de dados. Mesmo alguns fabricantes

que tinham seus produtos de rede proprietários acabaram apoiando o X.25 paralelamente

aos seus protocolos próprios.

Vencida a batalha contra os fabricantes, as empresas de telefonia poderiam

ter mantido o uso do X.25 sem maiores preocupações se não fosse por um outro elemento:

a Internet, com seus próprios protocolos duramente construídos por colaboração e com

uma grande comunidade de comprometidos apoiadores. Muitos desses apoiadores sentiam

que o X.25 tinha sido estabelecido em oposição direta aos protocolos TCP/IP da Internet.

Alguns representantes norte-americanos do CCITT tinham inclusive sugerido o uso do

TCP/IP nas discussões que culminaram no X.25, mas a idéia tinha sido amplamente

rejeitada. O TCP/IP oferecia protocolos testados, livremente disponíveis, não proprietários,

mas as empresas de telefonia queriam protocolos projetados para suas próprias

necessidades e interesses que eram diferentes dos valores militares e acadêmicos da

Internet.

Da aprovação do X.25 em 1976 até o final dos anos 80, os profissionais de

rede debateram intensamente sobre os relativos méritos dos padrões X.25 e TCP/IP. Cada

lado queria que seus protocolos fossem apoiados por fabricantes, ensinados em faculdades

e escolhidos para as redes públicas e privadas. Dentre as características que distinguiam os

protocolos, estava o tema da distribuição de controle.

4.4. Disputa entre o X.25 e o Transmission Control Protocol/ Internet Protocol -

TCP/IP

Os dados viajavam por uma rede de comutação de pacotes como pacotes

isolados que poderiam ser perdidos, danificados ou desordenados antes de chegar a seu

destino. De alguma forma a rede deveria tratar esses pacotes individuais de modo contínuo,

ordeiro, fluindo sem erros. Os projetistas de rede debatiam se esse fluxo deveria ser

fornecido pela sub-rede de comunicações ou por computadores centrais.

58

Essa era uma decisão básica sobre a qualidade do serviço. Se uma única

entidade detém tanto infra-estrutura de rede a sub-rede e os computadores, essa decisão

pode ser tomada em nível puramente técnico. Mas se diferentes grupos controlam

diferentes partes da rede, então se torna um tema estratégico sobre qual grupo (operadores

da rede ou donos de computadores) é que deterá o poder de determinar a performance da

rede. Tal era o caso da disputa sobre o X.25. Para as empresas de telecomunicações

(Bellheads), parecia evidente que o melhor serviço aos usuários poderia resultar de um

sistema em que poucos e grandes fornecedores de telecomunicações controlassem as

operações de rede. Para os donos de computadores (Netheads), parecia óbvio que os locais

de computação deveriam ter o máximo de controle possível sobre a performance da rede de

modo a modelar o serviço para atender às suas necessidades.

Essas duas abordagens refletem diferentes presunções sobre a capacidade da

rede e sobre o controle do operador do sistema sobre essas capacidades.

Os protocolos da CCITT foram propositadamente projetados para colocar

controle da rede nas mãos das telefônicas ao localizar a maior parte da funcionalidade

dentro da rede ao invés de fazê-lo nos computadores dos usuários, como acontecia na

arquitetura TCP/IP.

Em suma, a escolha entre X.25 e TCP/IP não era um mero debate técnico,

também definia a distribuição de controle e responsabilidade entre prestadores de redes

públicas e proprietários de computadores. Para as empresas de telefonia, o X.25 significava

que elas poderiam garantir a seus consumidores um melhor serviço e aumentar seu próprio

lucro. Alguns dos consumidores estavam felizes em receber um serviço de comunicação

confiável de dados com pouco esforço solicitado de sua parte. Porém, para donos de

computadores com maior expertise, o X.25 aumentava o custo de serviço de rede e

interferia em sua capacidade de controlar suas próprias atividades de comunicação de

dados.

Abbate (1999, p. 162) ainda aponta uma segunda diferença entre as

abordagens X.25 e TCP/IP. A ARPA se esforçava ao máximo para acomodar diferentes

tipos de redes, enquanto as empresas de telefonia esperavam que todas as redes do sistema

se adequassem para o uso do X.25. O modelo das empresas de telecomunicações era o

sistema de telefonia, e eles assumiam que seu monopólio de telecomunicações facilitaria a

criação de uma única e homogênea rede pública de dados em cada país, que se

interconectaria logo após. O projeto do CCITT mostra que as empresas de telefonia

59

estavam relutantes em conectar seus sistemas com redes privadas. Ao preparar o padrão

X.25, as decisões técnicas e políticas das telefônicas foram influenciadas pela expectativa

que as redes privadas não seriam amplamente usadas.

O X.25 foi explicitamente projetado para alterar o equilíbrio de poder entre

as empresas nacionais de telefonia e as fabricantes de computadores. E nisso tiveram

sucesso, pois as redes públicas de dados não ficaram dependentes de sistemas de rede

proprietária da IBM ou de qualquer outra companhia. Ao invés disso, ao se unir, as

empresas de telefonia forçaram as fabricantes a fornecer produtos de rede baseados no

padrão CCITT de protocolo X.25.

O conflito entre as visões CCITT e Internet não se resolveu imediatamente.

X.25 foi adotado na maioria das redes públicas e em algumas comerciais enquanto a

Internet da ARPA e algumas redes privadas continuaram a usar TCP/IP ou protocolos

comerciais. Mas, enquanto as questões sobre como interconectar esses diversos sistemas

não encontram solução, o debate foi deixado em segundo plano conforme um novo modelo

de desenvolvimento de padrões de rede havia entrado em cena: o Open Systems

Interconnection – OSI.

4.5. Open Systems Interconnection - OSI

O segundo grande esforço de definição de padrões de rede também mirava

os fabricantes de computadores. Como exposto, a incompatibilidade entre sistemas de

computação significava que os fabricantes de computação tinham um monopólio sobre

produtos de rede de seus sistemas, deixando os consumidores com poucas opções de

produtos de rede e com uma contínua incapacidade de interligar diferentes tipos de

computadores em rede. Assim, alguns anos após o início dos trabalhos para o

desenvolvimento do X.25, um grupo de especialistas em computação na ISO lançou uma

campanha para criar um conjunto de padrões de rede que poderiam ser utilizados em

qualquer sistema de computação.

Tal iniciativa de definição de padrões de rede era uma exceção à prática

normal da ISO ao tentar padronizar uma tecnologia ainda nova e que não tinha grande

60

chance de se estabilizar. Diferentemente da CCITT, que desenvolvia padrões para um

grupo relativamente pequeno e homogêneo de empresas de telefonia, a ISO estava

tentando servir toda a comunidade mundial de usuários de tecnologia. A ISO normalmente

adota uma postura conservadora, aguardando até um padrão “de facto” emergir da prática

em um determinado campo para usá-lo como base para um padrão formal público.

Mas no caso de redes, alguns membros da ISO acharam que padrões formais

deveriam ser delineados de modo pró-ativo. A controvérsia entre a empresa pública de

telecomunicações canadense e a IBM, que acionou o desenvolvimento do X.25, mostrava

que apesar dos usuários desejarem produtos de rede compatíveis, as fabricantes de

computadores não estavam comprometidas em oferecê-los. Se os usuários de rede não se

esforçassem em desenvolver padrões mundiais, estariam arriscados a se deparar diante de

uma infinidade de “padrões” proprietários incompatíveis e concorrentes que apenas

serviriam para uma determinada linha de produtos.

Em 1978, membros da ISO preocupados com o assunto formaram um

comitê para lidar com o problema de padrões de rede e deram ao projeto o nome de Open

Systems Interconnection. Para usuários de computação, sistemas abertos (open systems)

representavam um ideal oposto aos sistemas proprietários dos fabricantes. Como explicado

por Bollier (2003, p.105), para maximizar seu controle sobre o mercado, os fabricantes de

computadores tendiam a manter seus sistemas fechados o máximo possível. Os

funcionamentos técnicos de seus sistemas eram mantidos escondidos de competidores,

patentes e direitos autorais eram usados para prevenir duplicação de tecnologia e dificultar

a interface entre equipamentos. Para piorar a situação, “padrões” eram arbitrariamente

modificados. Em um sistema aberto, em contraste, as especificações técnicas do sistema

são públicas. A tecnologia é não-proprietária, de modo que qualquer um pode duplicá-la. O

sistema é desenvolvido para funcionar com componentes genéricos, ao invés de apenas

com os produtos de um fabricante específico, e mudanças aos padrões devem ser feitas por

uma organização pública de padronização e não por uma empresa privada.

Ao tornar os produtos de computação mais compatíveis, a abertura transfere

o poder de controle sobre a tecnologia da mão dos produtores para os consumidores. O

desafio da ISO aos fabricantes de computação foi ainda mais além do que a CCITT tinha

alcançado. O X.25 pretendia forçar os fabricantes a fornecer protocolos não proprietários,

mas o X.25 tinha sido apenas concebido para as redes nacionais de dados. O Open Systems

Interconnection, por outro lado, seria adotado como um padrão nacional de tecnologia em

61

vários países e portanto não apenas governos como também compradores privados seriam

beneficiados com produtos OSI.

Como o campo de rede de computação ainda estava evoluindo, o comitê da

OSI temia elaborar padrões de rede específicos que pudessem prematuramente congelar a

inovação. Para evitar esse risco, propuseram uma moldura geral para o desenvolvimento de

futuros padrões. Seu plano era iniciar com um modelo de como um conjunto de protocolos

deveria se encaixar para formar um sistema de rede completo. O modelo OSI definiria que

serviços os protocolos deveriam fornecer e como deveriam interagir. Uma vez definida

essa moldura geral, as organizações interessadas poderiam propor padrões específicos que

se adequariam ao modelo e os membros ISO decidiriam se os adotariam ou não como

padrões Open Systems Interconnection oficiais. O modelo OSI era um “meta-padrão”: um

padrão para criar padrões.

4.5.1. Conceito de Camadas

Antes de prosseguir com a descrição do modelo OSI, é adequado fazer um

esclarecimento a respeito do conceito de camadas. A principal razão para a adoção de

camadas é que o modelo de camadas divide uma tarefa como comunicação de dados em

diversas sub-tarefas, atividades ou componentes e cada uma delas é definida e

desenvolvida independentemente.

Existem diversas vantagens no uso de camadas, como:

1 - facilidade de mudança: quando mudanças são feitas em uma camada, o

impacto nas outras camadas é minimizado. Se o modelo consistisse de uma única camada

que envolvesse todas as atividades, qualquer mudança afetaria o modelo por completo;

2 - modularidade: um modelo de camadas define cada uma das camadas

separadamente. Enquanto as interconexões entre as camadas permanecerem constantes, os

projetistas de protocolos podem se especializar em uma camada sem se preocupar com os

impactos em outras camadas;

62

3 - solução de problemas: os protocolos, ações e dados contidos em cada

uma das camadas são relacionados tão somente àquela camada. Isso permite que a

resolução de problemas possa ser focada na camada que é tida como a suspeita da origem

do problema;

4 - padrões: estabelece uma linha mestra prescrita para interoperabilidade

entre vários produtores que desenvolvem produtos que realizam diferentes atividades de

comunicações de dados.

O sistema de camadas, ou layering, foi empregado para lidar com as

complexas tarefas de rede de maneira modular. O sistema de camadas é organizado como

um conjunto de funções que interage de acordo com regras específicas. As funções são

chamadas de “camadas” pois são dispostas em uma hierarquia conceitual que parte de

funções estruturais e físicas (como o transporte de sinais eletromagnéticos) até chegar em

funções abstratas (como a interpretação de comandos digitados no teclado pelo usuário).

Cada função superior depende do trabalho desempenhado pela camada inferior. O sistema

de camadas tem implicações técnicas e sociais, permitindo que a complexidade técnica do

sistema possa ser enfrentada com menor dificuldade e que o sistema seja desenvolvido de

modo descentralizado.

É difícil e não desejável a elaboração de um protocolo único para lidar com

todas as operações de comunicação em uma rede. Assim, os engenheiros adotam múltiplos

protocolos que dividem a comunicação em sub-problemas separados, organizando o

software em módulos para lidar com os desafios. Funções são alocadas em diferentes

camadas de protocolos, com interfaces padronizadas entre camadas. A flexibilidade

oferecida na abordagem de camadas permite que produtos e serviços evoluam acomodando

mudanças feitas na camada apropriada, ao invés de ter que reelaborar todo o conjunto de

protocolos. Em outras palavras, as camadas permitem que mudanças na implementação de

uma camada determinada não afetem o que já existe em outras camadas, desde que as

interfaces entre as camadas permaneçam constantes. As camadas criam um tipo de

modularidade, uma independência de uma camada em relação à outra. Aplicações ou

protocolos em camadas superiores podem ser desenvolvidos ou modificados com pouco ou

nenhum impacto nas camadas inferiores.

Uma forma simplificada de explicação do conceito de camadas é

apresentada pelo professor da Yale Law School, Yochai Benkler (2000) que sugere que um

sistema de comunicações deve ser entendido dividindo-o em três distintas camadas.

63

Embaixo de tudo, está a camada física, através da qual a comunicação é transportada. É o

computador, os fios que conectam os computadores na Internet. No meio está a camada

lógica ou camada de código – o código que faz com que o hardware funcione. Aqui podem

ser incluídos os protocolos que definem a Internet e o software em cima do qual esses

protocolos funcionam. No topo de tudo está a camada de conteúdo, aquilo que é dito ou

transmitido através dos fios. Aqui são incluídas as imagens digitalizadas, textos, filmes etc.

Essas três camadas funcionam juntas para definir um determinado sistema de

comunicações.

Para fornecer uma moldura de definição de padrões, o modelo OSI

organizou as funções de rede em sete camadas de protocolos. A camada mais baixa lida

com tarefas mais concretas de transmissão de sinais elétricos sobre um meio físico

enquanto as camadas mais superiores cuidam de assuntos mais abstratos de organizar e

monitorar fluxos de informação.

A camada física (physical layer) especifica como o hardware de interface

de rede regula os aspectos físicos e elétricos das conexões entre máquinas. A camada link

(link layer) traduz o fluxo de elétrons pelo meio físico em uma seqüência ordenada de bits

e decide quando transmitir ou receber mensagens do meio. A camada de rede (network

layer) lida com o endereçamento, roteamento e interface entre o computador e a rede. A

camada de transporte (transport layer) fornece uma confiável transmissão de dados. As

camadas de sessão (session layer) e apresentação (presentation layer) fornecem

melhoramentos em cima da camada de transporte. A camada de aplicação (application

layer) fornece serviços específicos ao software através do qual o usuário solicita serviços

de rede, como transferência de arquivos ou e-mail.

Esse modelo de sete camadas deveria constituir um grupo de nichos onde

qualquer protocolo ISO deveria se encaixar. O comitê OSI, que via seu trabalho como

complementar a outros movimentos de padronização, dizia que seu modelo permitiria que

construtores de rede o expandissem sem entrar em conflito com protocolos e interfaces

previamente definidas. O comitê esperava que sua proposta racionalizasse o processo de

escolha de padrões de rede sem impor especificações rígidas em um campo ainda muito

jovem. Na prática, esse equilíbrio seria muito difícil de manter.

Ao propor que padrões de rede fossem baseados em um modelo de rede

completo como sistema, o movimento Open Systems Interconnection moldou

significantemente a forma como profissionais de ciência da computação pensavam sobre

64

redes. O modelo OSI veio a dominar todas as tentativas subseqüentes de discussão de

protocolos de rede. Livros sobre redes eram preparados em base nas camadas OSI.

A autoridade da ISO no campo de padronização era tamanha que a moldura

OSI foi rapidamente endossada por órgãos de padronização em todos os países envolvidos

em redes de computadores. Nos Estados Unidos da América, o National Bureau of

Standards formou um Program in Open Systems Interconnection e em 1983 começou a

patrocinar seminários para ajudar os fabricantes de computadores a implementar os

protocolos OSI. O OSI era também bem vindo na Europa, onde a aceitação de padrões

técnicos comuns contribuiria no esforço de integração das economias européias ao

estabelecer um mercado uniforme para produtos de computação. Padrões públicos eram

vistos como tendentes a fortalecer as companhias de computação européias que eram muito

pequenas para impor seus padrões proprietários e assim poderiam enfrentar o domínio da

IBM e outras fabricantes no mercado mundial.

A apresentação do modelo OSI em 1978 deu um novo rumo ao debate de

padrões internacionais de rede. A ISO rapidamente adotou o X.25 como um protocolo

oficial OSI para a camada de rede (network layer) e nisso ganhou apoio das empresas de

telefonia. Mas em outros aspectos as duas organizações tinham prioridades distintas. As

telefônicas através da CCITT queriam preservar seu controle centralizado sobre redes de

comunicação nacional. Enquanto o grupo OSI tinha mais afinidade com as empresas de

telefonia sobre as camadas mais baixas dos padrões de rede, era mais próximo em espírito

com os usuários da Internet no tocante a padrões de camadas mais altas. A Internet em si

poderia ser considerada um “open system”, pois seus protocolos eram não-proprietários e

abertos, e eram projetados para incluir, ao invés de excluir, redes de diferentes tipos.

Contudo, o fato dos protocolos da Internet não terem sido definidos por um grupo oficial

de padronização e o fato de terem vindo dos Estados Unidos da América (que já dominava

o mercado de computação) fez com que fossem politicamente impossíveis de serem aceitos

pela ISO como padrões Open Systems.

Em 1982, a ARPA neutralizou o X.25 como um paradigma rival de rede, ao

colocar em funcionamento um equipamento chamado translation gateway que forneceu

uma interface entre a Internet baseada em TCP/IP e a Telenet, uma rede comercial baseada

em X.25. No sistema combinado, os aparelhos na Telenet executavam TCP/IP em cima dos

protocolos X.25 em nível mais baixo. Desse modo, o X.25, que deveria ser um completo

serviço de rede, agora apenas seria um componente subsidiário do esquema de rede da

65

ARPA. A interpretação do modelo OSI reforçou esse papel do X.25. Uma vez que o

conceito de hierarquia de protocolos tinha sido aceito e uma vez que o TCP, o IP e o X.25

tinham sido estabelecidos em diferentes camadas nessa hierarquia, ficava cada vez mais

fácil pensar nelas como partes complementares de um único sistema e mais difícil de

conceber o X.25 e os protocolos Internet como sistemas distintos e concorrentes.

O OSI assim re-definiu o debate sobre padrões de rede e trouxe nova

orientação para projetar e escolher protocolos de rede. Os protocolos OSI ganharam ampla

aceitação fora dos Estados Unidos da América. Entretanto apesar de boas intenções e

dedicação dos muitos envolvidos na ISO, o modelo OSI não chegou a atender sua

promessa de fornecer compatibilidade universal. A Internet continuaria a usar TCP/IP e a

OSI não teve sucesso em substituir sistemas de redes proprietárias. A IBM e outras

fabricantes continuaram a vender seus próprios protocolos, oferecendo produtos OSI

apenas quando a demanda de consumidores as forçava a isso. Como resultado, a

compatibilidade entre as redes usando protocolos distintos permaneceu um tema aberto.

Alguns profissionais de computação reclamavam do fato do modelo OSI ser

vazio: as camadas eram especificadas, mas por longos anos nenhum protocolo era

aprovado para a maioria das camadas. Usuários que não queriam aguardar a ISO terminar

de decidir sobre os padrões não tinham outra alternativa a não ser construir redes usando

outros protocolos.

Pior do que a demora na especificação de padrões, era quando a ISO

acabava sancionando múltiplos protocolos para algumas das camadas. Quando vários

protocolos atingiam uma grande gama de usuários a ISO tendia a aprovar todos como

padrões. Quase qualquer protocolo proprietário poderia ser proposto como um padrão OSI

se os fabricantes quisessem desistir de seu controle proprietário sobre ele. Isso prejudicou o

próprio plano da ISO de tornar os protocolos OSI um padrão único para todos os usuários

de computadores

4.6. Conclusão deste capítulo

66

A dinâmica da Internet, tratada no Capítulo 4, dá-se por meio das mudanças

de arquitetura.

Ao final dos anos 60, o campo de computação em rede ainda estava em sua

infância. Havia pouca teoria ou experiência para realizar orientação e as tecnologias de

computação e comunicação estavam em meio a grandes mudanças. Ao construir a

ARPANET, os projetistas gerenciaram essa incerteza ao incorporá-la como um elemento

do sistema. Ao invés de tentar racionalizar e planejar cuidadosamente cada aspecto do

sistema, os projetistas da ARPANET a projetaram para acomodar a complexidade,

incerteza, erro e mudança. Isso foi feito tanto através de escolhas técnicas como a

arquitetura em camadas e o princípio fim-a-fim e colocar seres humanos, com sua

adaptabilidade inerente, como uma parte integral do sistema.

O desafio de construir a rede de computadores havia sido enfrentado com

sucesso pelos criadores da ARPANET. A maior dificuldade foi convencer as pessoas a

usá-la. Os usuários foram essenciais para fazer com que a ARPANET se transformasse em

muito mais do que um experimento em comutação de pacotes. Aplicativos criados pelos

usuários se tornaram parte da infra-estrutura, e portanto ruindo a barreira entre usuário e

produtor. Ao adotar o e-mail ao invés da computação remota como aplicativo favorito, os

usuários criaram um sistema que correspondia às suas próprias necessidades e fornecia um

argumento para o valor do networking.

Todo o debate sobre os protocolos de rede abertos, proprietários e formais

ilustra como os padrões técnicos podem ser políticos (ABBATE, 1999, p. 179). Enquanto

certas intervenções do governo nos negócios e tecnologia como regulação de segurança e

ações antitruste são imediatamente entendidas como políticas, econômicas e sociais, a

definição de padrões técnicos é geralmente presumida como socialmente neutra e portanto

de pouco interesse. Mas as decisões técnicas podem ter fortes conseqüências econômicas e

sociais, alterando o equilíbrio de poder entre empresas concorrentes ou nações diferentes,

mesmo limitando a liberdade de usuários. Esforços para criar padrões formais trazem os

criadores de sistemas e suas decisões técnicas e privadas ao campo público; dessa forma,

batalhas de padrões podem trazer implícitos diversos conflitos de interesse. Por isso, a

definição legítima de padrões internacionais (tanto formais e públicos como “de facto”)

não pode ser deixada somente na mão do mercado. Por outro lado, uma intervenção

inadequada pode ser ainda mais prejudicial.

67

O TCP/IP aproveitava os benefícios de seu começo precoce para se tornar

um padrão “de facto” tanto nos Estados Unidos da América e cada vez mais

internacionalmente. Cada vez mais a controvérsia relativa ao padrão X.25 era neutralizada

abrindo caminho a uma convergência ou pelo menos acomodação entre os sistemas ARPA

e OSI. Sobrevivendo às disputas de padrões, a Internet despontou com uma base ainda

mais forte para expansão internacional.

Com isso, continuou o crescimento da Internet propulsionado pela

popularização do computador pessoal. Em pouco tempo, a forma de localização de dados

pela tabela de computadores não era mais suficiente e um novo sistema, o Domain Name

System – DNS, foi inventado.

68

5. INTERNET CORPORATION FOR ASSIGNED NAMES AND

NUMBERS (ICANN): NOMES E NÚMEROS

O início dos debates sobre a governança da Internet

Neste Capítulo será descrito como o processo técnico de identificação de

computadores conectados no sistema Internet ganhou relevância com a chegada de

interesses comerciais e como a Internet Corporation for Assigned Names and Numbers –

ICANN foi criada em meio a controvérsias internacionais que resultaram na Cúpula

Mundial sobre a Sociedade da Informação – CMSI. Os pontos abordados nesta seção

referem-se ao que ficou conhecido como governança estreita da Internet (narrow Internet

governance).

5.1. Nomes e números

O endereço IP é um dos elementos necessários para o funcionamento da

Internet. Trata-se de um número único separado por pontos, cujo conceito é muito

semelhante ao de um número de telefone, destinado a localizar máquinas conectadas na

Internet. Para que não haja duplicidade de números, é necessária alguma forma de

coordenação do sistema.

Um exemplo de endereço IP é 143.107.253.62. Como esse número não é

amigável ao usuário humano, um sistema que facilitasse a memorização desse endereço foi

criado, chamado Sistema de Nomes de Domínio (Domain Name System - DNS). Deste

modo, o endereço www.usp.br corresponde ao endereço IP 143.107.253.62.

A estrutura mais popular de um nome de domínio é tripartite: (i) o popular

“www”, referência à World Wide Web; (ii) um termo a ser escolhido; e (iii) um Top-Level

Domain – TLD, dos quais os mais populares são o “.com”, “.gov”, “.org”, entre outros,

além daqueles que fazem referência a um país (country-code Top-Level Domain –

69

ccTLD)50. Essa correspondência é realizada por um processo técnico que não será

detalhado nesta dissertação, mas que envolve recursos da rede relacionados aos servidores

raiz (root servers). Atualmente existem 13 servidores raiz, nomeados com letras de A a

M51, sendo que o Servidor Raiz A é o mais importante por ter a maior autoridade final

sobre as informações das listas. Os demais servidores raiz apenas copiam as informações

do Servidor Raiz A, mantendo-se regularmente atualizados.

5.2. O Sistema de Nomes de Domínio (Domain Name System - DNS)

O Sistema de Nomes de Domínio - DNS armazena informações sobre

nomes de domínio em um tipo de banco de dados distribuído na Internet, uma função hoje

vital para a Internet ao facilitar a transmissão de informações técnicas em um modo

amigável ao usuário.

Antes da invenção do DNS, o número de computadores e redes conectados

através da Internet começou a aumentar de forma que o antigo sistema de nomes ficou

sobrecarregado. Para coordenar e traduzir os nomes no antigo sistema da Internet, era

necessária uma enorme tabela que tinha que ser atualizada e distribuída sempre que

recursos eram adicionados, removidos ou modificados, o que ocorria freqüentemente. O

Network Information Center – NIC era responsável pela aprovação de novos nomes e por

manter e distribuir tais tabelas atualizadas. Como muitas vezes sua resposta não era

suficientemente rápida, muitos administradores começaram a usar suas próprias tabelas

não oficiais, porém atualizadas. Mais, quando o NIC distribuía tabelas atualizadas, o fluxo

de dados era tão grande que ameaçava sobrecarregar a rede com tráfego conforme elas

eram transmitidas por centenas de pontos. Os administradores reclamavam da inadequação

desse sistema, e era claro a todos que quanto mais a Internet crescesse, mais esse problema

seria agravado.

50 Para informações mais detalhadas sobre o DNS, recomenda-se a visita de http://www.icann.org/tlds/ 51Não é possível expandir além dessas letras devido a limitações de protocolo, mas os servidores C, F, I, J e

K agora existem em múltiplas localizações em diferentes continentes, usando uma tecnologia chamada anycast para oferecer um serviço descentralizado. Como resultado, a maior parte dos servidores raiz está hoje fisicamente localizada fora dos Estados Unidos.

70

Para lidar com isso, membros da comunidade técnica da Internet começaram

a enfatizar a idéia de dividir o espaço de nomes da Internet em um grupo de domínios

menores. Ao invés de uma única organização (como o NIC) manter grandes arquivos

relacionados a todos os nomes, cada domínio teria uma parte do espaço de nomes em sua

responsabilidade. O DNS eliminava a necessidade de distribuir grandes arquivos de tabelas

através da rede em intervalos freqüentes. Ao invés disso, a informação dos nomes seria

mantida nos servidores dos vários domínios. Ao invés de fazer com que cada computador

tivesse que manter tabelas listando centenas de endereços, agora eles precisavam saber

apenas os endereços de pequeno número de servidores de domínios, e por seguinte cada

servidor de domínio responderia com o endereço final desejado.

A tarefa de manter as listas atualizadas foi entregue à Network Solutions,

Inc. (NSI) através de um monopólio concedido pela National Science Foundation.

5.3. Privatização e os temas de gerenciamento

Por diversos motivos52, em abril de 1995 a espinha dorsal (backbone) da

rede até então mantida pelo governo norte-americano através da National Science

Foundation – NSF foi substituída por uma estrutura mantida por provedores comerciais.

Com tal privatização, a Internet foi aberta para um segmento muito maior do público norte-

americano, e o uso comercial ou de entretenimento ficou aceitável, pois até então era

proibido pela política de uso da rede.

Privatizar o backbone Internet havia sido uma tarefa relativamente simples,

mas a transição para operação comercial deixava aberta a questão sobre quem forneceria a

continuidade de planejamento técnico e administração do sistema. Cada rede integrante

que estava sendo conectada à Internet era responsável por suas próprias operações. Porém,

o desenvolvimento de protocolos, administração de nomes e endereços de Internet e outras

tarefas que afetavam todo o sistema ainda exigiam algum tipo de coordenação central, uma

função que a NSF não mais poderia cumprir.

52 Leitura adicional com detalhes sobre a privatização disponível em:

<http://www.governingwithcode.org/journal_articles/pdf/Backbone.pdf>. Acesso em 16.01.2006.

71

Em alguns casos, o controle sobre funções administrativas foi dividido entre

entidades competidoras comercialmente, sob o argumento de que a competição de mercado

encorajaria a inovação e impediria um grupo único de ganhar poder demasiado. No que diz

respeito aos nomes de domínio, que nos anos 90 começavam a atrair um grande valor de

mercado por se tornar símbolos valiosos de identidade empresarial e mesmo de

propriedade intelectual, a questão de quem deveria designar esses nomes ficou altamente

contestada. Alguns acreditavam que o registro de nomes deveria continuar sob o controle

central da InterNIC, um órgão sem fins lucrativos designado pelo governo norte-

americano. Outros, argumentando que a InterNIC era lenta e com pouca responsabilidade

em suas práticas de negócio, argumentavam que a competição seria bem-vinda para um

melhor serviço.

A decisão era difícil, pois o processo de nomes trazia diversos interesses

conflitantes e os perdedores potenciais estavam prontos para criticar qualquer sistema

proposto.

5.4. Jon Postel e a Internet Assigned Numbers Authority (IANA)

Para Craig McTaggart (1999), um dos grandes elementos de sucesso da

Internet é a continuidade das personalidades que lideraram as estruturas de governança

informal da rede. Por toda a história da Internet, incluindo a era ARPANET, o DNS e

outras funções de coordenação foram supervisionados pelo cientista Jonathan Postel.

Jon Postel foi um dos grandes responsáveis pela implementação do Domain

Name System (DNS), criando um grupo para nomes genéricos (gTLDs) e outro grupo para

nomes de países (ccTLDs). Para os gTLDs, ele sugeriu “.edu” para instituições

acadêmicas; “.gov”, para órgãos governamentais; “.mil”, para os militares; “.com”, para

empresas; “.org”, para organizações e “.net” para todas as outras redes.

Quanto aos ccTLDs, Jon Postel deixou muito claro no RFC 1951 (IETF,

1996) que sua delegação de ccTLDs não era uma decisão sobre o que seria ou não um país.

Ele associou as configurações técnicas com unidades listadas na lista ISO 3166 da

International Standardization Organization, que era a lista mais completa de 243 países e

72

territórios que Postel encontrou na época.

Até o fim dos anos 90, a maioria dos governos no mundo de certa forma

ignorava a Internet, incluindo até mesmo o gerenciamento de seu próprio ccTLD. O

sistema global da Internet cresceu à margem da política intergovernamental.

Apenas o governo dos Estados Unidos, que inicialmente financiou pesquisas

da Internet através do US Department of Defense e mais tarde através do National Science

Foundation desenvolveu algo como uma soft policy sobre Internet. A administração

Reagan de 1980 a 1988 criou com a filosofia de desregulação um ambiente aberto e

flexível para os desenvolvedores de Internet. Apenas quando o registro de nomes de

domínio de Internet chegou a mais de 100.000, no final dos anos 80, a administração Bush

propôs institucionalizar o gerenciamento do DNS.

De qualquer forma, a liderança informal de Jon Postel sobre as listas de

endereços fez com que ele ficasse no centro de uma controvérsia relacionada a quais novos

TLDs poderiam ser acrescentados ao sistema. Para cientistas como David Clark53, Jon

Postel sempre tomou decisões sábias, priorizando o que seria o melhor para o futuro da

Internet, sob seu ponto de vista.

Em um contrato assinado em 1989 entre o US Department of Commerce e o

Information Science Institute de Postel na University of Southern California, a Internet

Assigned Numbers Authority – IANA foi criada.

A Internet Assigned Names Authority sequer tinha personalidade jurídica e

essencialmente era o próprio Jon Postel, (ZITTRAIN, 1999). Ela se tornou a coordenadora

reconhecida dos recursos de Internet. Assim, gerenciava os bancos de dados TLD e

alocava os blocos de endereço IP regionalmente. Não é exatamente uma entidade, mas sim

um conjunto de funções e atribuições.

No começo dos anos 90, quando o número de detentores de Nomes de

Domínio ultrapassou a marca de um milhão, a Internet, estimulada pela World Wide Web,

se tornou uma plataforma comercial e as dimensões políticas e econômicas da coordenação

técnica dos recursos da Internet se tornaram mais e mais visíveis.

Em 1995, Postel, reconhecendo a necessidade de um sistema de

53 HARVARD UNIVERSITY. Transcript of dialogue between J. Zittrain and D. Clark. Cambridge: Harvard University, 1997. Disponível em: <http://cyber.law.harvard.edu/jzfallsem//trans/clark/>. Acesso em 16.01.2006.

73

gerenciamento do DNS mais estável e amplo do que ele poderia oferecer individualmente,

procurou mover a função IANA para o sistema da Internet Society – ISOC, uma associação

profissional internacional que reunia grupos ligados à arquitetura da Internet54. Porém, esse

esforço encontrou oposição tanto do governo norte americano como da indústria.

5.5. Network Solutions, Inc. e a escassez de nomes de domínio

Em 1995, a NSF interrompeu o financiamento financeiro para a Internet e o

Departamento de Comércio dos Estados Unidos da América permitiu que a Network

Solutions, Inc. – NSI , uma das beneficiárias do apoio NSF, introduzisse uma taxa anual de

registro de 35 dólares para cada nome de domínio. Em 1996 a NSI já tinha mais de 10

milhões de nomes registrados em seu banco de dados.

O negócio de registro de nomes de domínio provou ser um negócio

altamente lucrativo, atraindo a atenção de outros empreendedores que estavam interessados

em dividir o mercado da Network Solutions, Inc.

Logo após o começo das cobranças, Postel se manifestou contrário e

apresentou uma proposta para a criação de 150 novos TLDs a serem implementados em

três anos, o que geraria uma competição no mercado.

Em particular, a NSI que operava, na base de contrato com o Departamento

de Comércio dos Estados Unidos da América, o Servidor Raiz A (A Root Server), que é a

lista das listas, e gerenciava as funções de registro para os gTLDs .com, .org, .net e .edu,

temia que o plano de Postel para introduzir 150 novos gTLDs poderia prejudicar o

crescente mercado multimilionário de registro de nomes de domínio, pois a escassez

artificialmente criada era um estímulo para que os empresários não apenas registrassem os

domínios que pretendiam utilizar para sua empresa, mas também adotar estratégias

defensivas e ofensivas ao registrar o maior número possível de nomes de domínio

54 Mais informações podem ser obtidas no web site da Internet Society.

74

contendo derivações de suas próprias marcas e de terceiros55.

Um crescente interesse em algo como uma política de governança da

Internet estava também sendo observado na comunidade de marcas. Numerosos conflitos,

em um processo conhecido como DNS Wars, entre detentores de nomes de domínio e

detentores de marcas registradas começaram a deixar visível a necessidade de um sistema

consistente de resolução de disputas que protegesse marcas registradas na Internet.

5.6. Interim ad hoc Committee (IAHC)

Postel, querendo evitar tanto o controle governamental como comercial do

DNS, tentou encontrar uma “terceira via”. Em 1996, iniciou o chamado Interim Ad Hoc

Committee (IAHC).

O IAHC era uma rede que juntava três organizações técnicas (Internet

Assigned Names Authority – IANA, Internet Society – ISOC e o Internet Architecture

Board – IAB), duas organizações das Nações Unidas (a UIT e a Organização Mundial da

Propriedade Intelectual – OMPI), além de um grupo empresarial (a International

Trademark Association). O plano era estabelecer um comitê de supervisão política

composto pelos seis grupos como a mais alta autoridade no gerenciamento de nomes de

domínio, introduzindo sete novos gTLDs, licenciar 28 registros e mover o Servidor Raiz A

de Hemdom, Virginia para Genebra, Suíça. Para Postel, era importante que tanto

instituições governamentais como de negócios estivessem envolvidas.

O grupo elaborou o memorando de entendimentos conhecido como Interim

Ad Hoc Committee generic Top Level Domains Memorandum of Understanding (IAHC

gTLD MoU), que foi assinado em 2 de maio de 1997 e do qual a UIT foi depositária. O

secretário geral da UIT, Pekka Tarjanne, qualificou o MoU como o começo de uma nova

política global de Internet e um ponto de virada no direito internacional. O MoU não era

um tratado intergovernamental, mas sim, uma recomendação não vinculante assinada por

cerca de 80 instituições governamentais e de negócio. A maior parte dos membros da ITU 55 Como exemplo, o domínio www.mci.com havia sido registrado por uma competidora da MCI

Communications, a Sprint, em manobra que impedia a MCI de utilizar o domínio www.mci.com.

75

não participou das negociações do IAHC.

O MoU encontrou uma forte oposição. O governo dos Estados Unidos não

apoiou o plano de mudar o Servidor Raiz A para Genebra. A Secretária de Estado dos

Estados Unidos da América, Madeleine Albright, escreveu uma carta crítica a Pekka

Tarjanne, argumentando que o Secretário Geral da UIT havia ultrapassado os poderes de

seu mandato, quando assinou o IAHC gTLD MoU sem maior consultas aos Estados

Membros da UIT. A NSI, que via na recomendação uma ameaça ao seu monopólio no

negócio de registro de nomes gTLD, opôs-se fortemente ao MoU e fez lobby no Congresso

norte-americano para rejeitá-lo. Mais ainda, as entidades nacionais de registro de ccTLDs,

que não foram incluídos no gTLD MoU, criticaram sua exclusão. O IAHC gTLD MoU

havia fracassado.

5.7. Internet Corporation for Assigned Names and Numbers - ICANN

Dois meses depois, em 01.07.1997, o governo norte-americano apresentou

um plano alternativo. O relatório “A Framework for Global Electronic Commerce”

(UNITED STATES OF AMERICA, 1997) assinado pelo presidente Bill Clinton e vice-

presidente Al Gore, sugeriu uma privatização do DNS. O relatório norte-americano não

mencionava o IAHC gTLD MoU nem a UIT, e se tornou o ponto inicial para o processo de

contenda internacional que culminou na fundação da ICANN em novembro de 1998.

Em continuidade, o primeiro “Green Paper”56 (DoC, 1998) para realizar a

reforma foi publicado pelo Departamento de Comércio dos Estados Unidos da América no

começo de 1998. A proposta era a criação de uma nova entidade privada sem fins

lucrativos (“new private, non-commercial corporation - NewCo"), para introduzir a

competição no negócio de registro de nomes de domínio e desenvolver um mecanismo

para a solução de disputas sobre nomes de domínio.

O Green Paper provocou mais uma onda de críticas, dessa vez

principalmente dos representantes europeus e da Austrália. A UE criticou pesadamente a 56 Um green paper é um relatório preliminar do governo com propostas sem grande comprometimento para ação concreta. É o primeiro passo para a mudança legal. Um green paper pode resultar na produção de um white paper, que é um documento mais substancial e maduro em um tema de importância pública.

76

administração norte-americana e clamou por um órgão internacionalmente representativo

para futura governança da Internet, agora entendida como um meio global de comunicação.

Na época, o governo brasileiro, assim como o de diversos países, não se manifestou a

respeito.

Ira Magaziner, conselheiro de assuntos de Internet do presidente Clinton e

principal arquiteto do que mais tarde se tornaria a ICANN, respondeu à crítica européia em

uma audiência no congresso norte-americano dizendo que a intenção da proposta do US

Department of Commerce se limitava apenas à melhoria do gerenciamento técnico do

DNS. O Green Paper não buscava criar um sistema centralizado de governança da

Internet. Mais, Magaziner confessou duvidar se a Internet deveria ser governada por um

único órgão ou plano. Ele reconheceu que a Internet havia se tornado um meio

internacional para o comércio, educação e comunicação e aceitou a idéia de um órgão

internacional representativo e propôs que a composição do Conselho de Administração da

nova entidade fosse equilibrado e representasse a diversidade funcional e geográfica da

Internet.

Um White Paper (U.S. Department of Commerce, 1998), mais moderado e

equilibrado e publicado pelo Departamento de Comércio dos Estados Unidos da América

em junho de 1998 definiu quatro princípios para a nova entidade: (i) estabilidade da

Internet; (ii) competição no mercado de nomes de domínio; (iii) coordenação política

privada de baixo para cima (bottom-up); e (iv) representação global.

Logo após, uma série de seminários internacionais conhecida como

International Forum on the White Paper foi realizada entre diversos stakeholders

buscando identificar e articular os atores, temas e posições e dar uma personalidade

jurídica à nova entidade para atender às especificações do White Paper.

O porta voz do Departamento de Comércio dos Estados Unidos da América

acrescentou que o que se buscava era uma organização global e funcionalmente

representativa, operando em base de processos transparentes que fossem à prova de

tentativas de dominação por parte de interesses privados e que possibilitasse um

gerenciamento robusto e profissional. Os processos da nova entidade deveriam ser justos,

abertos e pró-competitivos, com mecanismos que possibilitassem evolução de acordo com

os interesses dos stakeholders da Internet.

Dentro de algumas semanas o estatuto social da nova entidade, a Internet

77

Corporation for Assigned Names and Numbers – ICANN, foi preparado. Seu projeto veio

principalmente de Ira Magaziner, enquanto o texto final, em grande parte de Jon Postel. O

processo de elaboração das minutas foi de certa forma aberto e transparente, pois todas as

minutas foram publicadas na Internet e um período de discussão disponibilizado para

comentário público. Porém, a fundação da ICANN foi vista como uma grande conspiração

por grupos que não foram envolvidos na redação final, ou que não tomaram conhecimento

da existência das negociações remotas.

Postel, que faleceu algumas semanas após, defendeu sua proposta ao

apresentar o resultado final ao Congresso norte-americano, dizendo que todos aqueles que

quiseram oferecer comentários tinham sido ouvidos e que a nova entidade seria única no

mundo – uma organização não governamental com responsabilidades significantes na

administração do que estava se tornando um importante recurso global

A ICANN foi então fundada como uma organização privada sem fins

lucrativos, representando a “comunidade global da Internet”, em uma estrutura sob leis da

Califórnia. O projeto da ICANN foi baseado na idéia de que os provedores e usuários da

Internet deveriam eles mesmos ter poder de tomada de decisão, enquanto os governos

deveriam apenas ter um papel de aconselhamento. Conseqüentemente, o Conselho de

Administração foi composto de 19 membros escolhidos pelos três assim chamados

Supporting Organizations for Domain Names, Internet Addresses and IP Protocols,

representando os provedores e desenvolvedores de serviços de Internet (o setor privado) e

nove membros que representariam o público em geral, ou seja os usuários individuais da

Internet. Os representantes dos governos não foram eleitos como membros do Conselho de

Administração da ICANN. Um “Government Advisory Committee” (GAC) para governos

nacionais foi convidado para dar aconselhamento ao Conselho de Administração em temas

de interesse público. Porém, de acordo com o estatuto social da ICANN, as recomendações

do GAC não tinham poder vinculante aos membros do CA da ICANN.

A criação da ICANN tornou o IAHC gTLD MoU obsoleto. Quando a

própria UIT realizou sua Conferência de Plenipotenciários em Minneapolis em outubro de

1998, o IAHC gTLD MoU foi tratado como um documento inexistente. Mesmo a

Resolução ITU 102 (ITU, 2002) que se referia a “Management of Domain Names and

Internet Addresses”, não fez referência ao IAHC gTLD MoU uma única vez. Ao invés

disso, convidava o Secretário Geral da UIT a tomar um papel ativo na discussão

internacional e nas iniciativas do gerenciamento de nomes de domínio e endereços, que

78

estava sendo liderado pelo setor privado.

Essa mudança na postura da UIT foi alcançada por uma negociação

diplomática: o governo norte-americano retirou sua oposição aos planos da UIT de

preparar uma conferência mundial sobre a Sociedade da Informação e em troca recebeu da

UIT um reconhecimento da liderança do setor privado na governança da Internet no

gerenciamento de nomes de domínio e endereços Internet.

Oito dias depois, o Interim ICANN Board of Directors teve sua primeira

reunião em Cambridge, Massachusetts, e em 25.11.1998 o Departamento de Comércio dos

Estados Unidos da América reconheceu a ICANN como a nova entidade buscada pelo

Framework for Global Electronic Commerce. O Memorando de Entendimento

(Memorandum of Understandings – MoU) entre o Departamento de Comércio dos Estados

Unidos da América e a ICANN era apenas para um período de transição. Após dois anos e

sob a condição de que a ICANN preenchesse suas funções, o Departamento de Comércio

dos Estados Unidos da América transferiria suas responsabilidades remanescentes,

incluindo o controle sobre o Servidor Raiz A e a função IANA para a ICANN.

Apesar do aparente consenso atingido em Minneapolis, as relações entre

UIT e Estados Unidos da América não estavam suaves. Durante o World Economic Forum

em Davos em janeiro de 1999, o Secretário Geral da UIT, Pekka Tarjanne, acusou o

Internet Adviser do presidente Clinton, Ira Magaziner, de hipocrisia. O governo americano

pregava a auto-regulação da Internet pelos prestadores e usuários sem envolvimento

governamental, mas ao mesmo tempo reservava um papel especial para si ao colocar o

Departamento de Comércio dos Estados Unidos da América como o último órgão de

supervisão na ICANN. Magaziner defendeu sua posição ao se referir ao período de

transição de dois anos e o previsível fim ao papel especial do Departamento de Comércio

dos Estados Unidos da América, o que não aconteceu até o momento presente por

aditamentos ao MoU, postergando seu encerramento.

O idealismo dos fundadores da ICANN não funcionou como originalmente

pretendido. Apesar do Conselho de Administração ser composto por representantes de

várias regiões do mundo com conselheiros norte-americanos em minoria, o resultado

prático na economia da Internet e no mercado de nomes de domínio é que a ICANN se

tornou muito voltada aos Estados Unidos da América, com a Verisign (nova denominação

da NSI) como seu principal ator. A idéia de eleger conselheiros representando os usuários

da Internet para balancear os interesses da industria privada não vingou. E o governo dos

79

Estados Unidos da América continuou no negócio de governança e a administração Bush

renovou o memorando de entendimentos entre a ICANN e o Departamento de Comércio

dos Estados Unidos da América e o estendeu até 30.09.2006.

Após os ataques terroristas de 11 de setembro de 2001, o ambiente político e

econômico da governança da Internet mudou drasticamente. Garantir a segurança e

estabilidade da Internet virou prioridade. A ICANN começou um processo de reforma e re-

desenhou sua estrutura de gerenciamento. Enquanto a representação de usuários de Internet

foi reduzida, o papel dos governos aumentou. Os princípios originais continuaram os

mesmos, mas a ICANN reformada ficou um pouco menos parecida com o órgão auto-

regulatório anteriormente imaginado e mais como uma organização de parceria público-

privada.

Entre as várias preocupações a respeito da ICANN, não há uma certeza a

respeito da necessária observância dos padrões IETF pela ICANN ao regular os serviços de

nomes de domínio, além de críticas a respeito de ausência de uma política clara para a

inclusão de novos Top-Level Domains, o grau de responsabilidade e sujeição à prestação

de contas da ICANN perante os usuários individuais e o grau a que a ICANN deve prestar

contas e ser responsável às exigências de governos ou ser independente deles57.

Como visto, a ICANN é responsável por temas relacionados ao

gerenciamento de recursos da Internet. Isso inclui a coordenação da alocação e designação

de nomes de domínio e endereços IP assim como a operação e evolução do DNS e de seu

sistema de servidores raiz. A ICANN também desenvolve política relacionada a essas

funções, fornecendo um serviço único e centralizado para a operação da Internet, em um

nível global e de um modo não-competitivo. Mais, ao executar sua missão a ICANN

também pode ser considerada como uma entidade que exerce função regulatória

internacional (AL-DARRAB, 2005, p.181). Exemplos de funções regulatórias incluem:

- regulação do preço e estrutura da indústria de registros de nomes de

domínio. Ela determina e licencia os registros de TLD e controla os preços cobrados pelos

57 São numerosas as discussões a respeito das reformas necessárias ao atual modelo ICANN, as quais são

geralmente consideradas temas de governança estreita da Internet. Para a dissertação, limitaremos a mencionar a existência dessa problemática, com a ressalva de que os temas objeto da dissertação incluem porém não se limitam aos temas de nomes e números. Reconhece-se porém a construtiva e importante iniciativa de numerosos estudos e debates acerca da governança da Internet com um foco voltado ao DNS, como, entre outros, o debate promovido pelo Berkman Center for Internet and Society: http://cyber.law.harvard.edu/is99/governance/introduction.html

80

registros;

- política e regulação do uso de recursos de nomes e endereços Internet,

incluindo o estabelecimento de novos TLDs genéricos e de country code;

- política e regulação da resolução de disputas, através de um mecanismo

compulsório e vinculante sobre nomes de domínio.

Organizações públicas que desenvolvem políticas e regulações

tradicionalmente funcionam em uma maneira previamente definida, transparente e aberta a

consultas e são responsáveis publicamente. Apesar da ICANN ter trabalhado para atingir

uma abordagem transparente e com consultas em um Conselho internacionalizado e com o

estabelecimento de vários grupos de aconselhamento, como uma entidade privada ela não

tem como ser publicamente responsável diante da comunidade internacional.

A supervisão da auto-regulação da indústria é geralmente um papel

desempenhado por governos nacionais e organizações intergovernamentais. No caso da

ICANN, esse papel é atualmente realizado pelo governo norte-americano. O papel dos

outros governos nacionais e de grupos de interesse público nos processos da ICANN é

limitado a aconselhamento e por isso um importante elemento de legitimidade

internacional está omisso (AL-DARRAB, 2005, p.182).

5.8. A Cúpula Mundial sobre a Sociedade da Informação – CMSI

Em continuidade ao acordo de Minneapolis para a realização de uma

conferência sobre a Sociedade da Informação, a Assembléia Geral da ONU, em dezembro

de 2001, adotou uma Resolução instalando a Cúpula Mundial sobre a Sociedade da

Informação – CMSI (World Summit on Information Society – WSIS) em duas fases: a

primeira em Genebra em dezembro de 2003 e a segunda na Tunísia em 2005. A CMSI foi

desenhada com amplo espectro de questões relacionadas à Sociedade da Informação, em

direção a uma visão e compreensão comum desta transformação social.

81

5.8.1 CMSI e governança da Internet

A ironia é que o Acordo de Minneapolis de outubro de 1998, que permitia

que a UIT realizasse uma conferência mundial e deixasse a governança da Internet nas

mãos do setor privado, acabou trazendo efeitos inesperados quando as preparações para a

primeira fase da CMSI começaram com a Conferência Preparatória número 1 – PrepCom1

em junho de 2002. A esta época, a ICANN estava no meio de um processo de reforma e a

UIT estava preparando sua próxima Conferência de Plenipotenciários para Marraqueche,

que tinha, entre outros, uma reavaliação da Resolution 102 sobre nomes de domínio em sua

agenda. A governança da Internet não era tema na PrepCom1, mas durante a série de

Conferências Ministeriais Regionais CMSI acabou adquirindo mais e mais atenção.

A Conferência Ministerial Regional CMSI Asiática em Tóquio de janeiro de

2003 acrescentou o gerenciamento de endereços IP ao lado de nomes de domínio. A

Declaração de Tóquio dizia que a transição para a Sociedade da Informação exigia a

criação de molduras jurídicas, regulatórias e políticas apropriadas e transparentes em nível

global, nacional e regional. Tais molduras deveriam dar a devida consideração aos direitos

e obrigações de todos os stakeholders em áreas como liberdade de expressão, privacidade,

segurança, gerenciamento de endereços Internet e nomes de domínio e proteção ao

consumidor, enquanto também mantém incentivos econômicos e assegurando a confiança

em atividades empresárias.

A Conferência Ministerial Regional CMSI da América Latina, em Bávaro

de janeiro de 2003, foi um passo adiante. Aqui pela primeira vez o termo “governança da

Internet” aparece em um documento CMSI. O parágrafo relevante da Declaração de

Bávaro fala em estabelecer as molduras nacionais legislativas apropriadas, salvaguardando

o interesse público e o geral e a propriedade intelectual, e, que colabore com as

comunicações e transações eletrônicas. A proteção contra ofensas civis e criminais, temas

referentes à solução de disputas, segurança de rede, assim como assegurar a

confidencialidade de informação pessoal são considerados essenciais para criar confiança

em redes de informação. A governança multilateral, transparente e democrática da Internet

deve fazer parte deste esforço, levando em consideração as necessidades dos atores

públicos e privados, assim como os da sociedade civil.

A Conferência Ministerial Regional CMSI da Ásia Ocidental em Beirute de

82

fevereiro de 2003 deu mais um grande passo ao introduzir idéias como “organização

internacional apropriada”, “multilingüismo” e “soberania nacional” em relação à

governança da Internet. O artigo 2, parágrafo 4 da Declaração de Beirute diz que a

responsabilidade por diretórios raiz e nomes de domínio deve ser mantida com uma

organização internacional apropriada e deve levar o multilingüismo em consideração. O

controle de TLDs nacionais e a designação de endereços IP devem ser um direito nacional

soberano. A soberania de cada nação deve ser protegida e respeitada. A governança da

Internet deve ser multilateral, democrática e transparente e deve levar em consideração as

necessidades dos atores públicos e privados assim como os da sociedade civil.

Paralelamente às Conferências Ministeriais Regionais CMSI, a UIT tinha

sua própria Conferência de Plenipotenciários em Marraqueche agendada para outubro de

2002. Durante a conferência de Marraqueche surgiu uma controvérsia quanto à liderança

do setor privado e o futuro papel da UIT na governança da Internet. Apesar de nos

primórdios da ICANN os membros da UIT não estarem satisfeitos com a nova entidade,

em Marraqueche os governos norte-americano e europeus, apoiados pelos membros do

setor privado da UIT, expressaram sua satisfação com o processo de reforma da ICANN e

se posicionaram em favor da continuidade da ICANN como um líder na governança da

Internet.

Porém, o processo da CMSI havia despertado em um crescente número de

países em desenvolvimento o entendimento sobre o tema do gerenciamento de nomes de

domínio e endereço IP como um tema relacionado à sua soberania e ao desenvolvimento

econômico. Os paises em desenvolvimento se sentiam sub-representados na ICANN e

culpavam a corporação privada com sede na Califórnia por ser dominada pelos Estados

Unidos da América e estar aprofundando a brecha digital58. Tais países sentiram que não

tinham as oportunidades adequadas para participar do processo de tomada de decisões na

ICANN e criticaram a função de controle do governo dos Estados Unidos da América

sobre o Servidor Raiz A. Adicionalmente, alguns governos vieram com a idéia de

governança ampla para regular a Internet em geral, de forma semelhante com as

telecomunicações e radiodifusão, para proteger temas econômicos ou políticos em áreas

como controle de conteúdo, cibercrimes ou VoIP.

A controvérsia de Marraqueche produziu uma renovada Resolução 102 na 58 Brecha digital, ou “digital gap” ou “digital divide” é conceito relacionado à dificuldade em obtenção de

acesso a TICs.

83

qual o relacionamento entre a liderança da indústria privada e o envolvimento do governo

foi re-equilibrado. O papel chave e a liderança do setor privado conquistados na resolução

de 1998 foram substituídos pelo reconhecimento de um papel muito importante. Por outro

lado, a soberania de governos nacionais sobre o espaço de seus domínios nacionais, os

ccTLDs, foi fortalecido. A resolução tentou ainda separar os temas políticos dos técnicos.

Enfatizou que o gerenciamento de nomes de domínio e endereços inclui tarefas técnicas e

de coordenação, para as quais os órgãos privados podem ser responsáveis. Identificou

também assuntos de interesse público como estabilidade, segurança, liberdade de uso,

proteção de direitos individuais, soberania, regras de competição e acesso equânime a

todos, pelos quais os governos e organizações intergovernamentais são responsáveis e para

as quais as organizações internacionais contribuem. O Secretário Geral da UIT recebeu a

instrução de tomar um papel significante nas discussões internacionais e iniciativas no

gerenciamento de nomes de domínio e endereços Internet e para encorajar todos os

Estados-membros a participarem de discussões sobre o gerenciamento internacional de

nomes de domínio e endereços Internet, de modo que representação global dos debates

pudesse ser assegurada.

Na Conferência Preparatória número 2 – PrepCom2, que ocorreu uma

semana após Beirute, a governança da Internet de repente se tornou um tópico principal. A

recomendação da conferência de Beirute foi um evento em que a governança da Internet

ganhou destaque inesperado em um ambiente onde até então somente se falava em direitos

humanos, brecha digital, cibersegurança e estabelecimento de um fundo de solidariedade

digital.

Durante a Conferência InterSessional CMSI de Paris em julho de 2003, os

governos criaram um Internet Governance Ad Hoc Working Group que se tornou o

principal corpo de negociação até dezembro de 2003. De acordo com a abordagem

multistakeholder, o setor privado e a sociedade civil estavam para se envolver diretamente

nas discussões desde o começo.

5.8.2 As críticas da CMSI

84

Apesar do funcionamento do DNS e do sistema de servidores raiz estar

adequado em termos técnicos, durante a CMSI houve críticas a respeito de sua estrutura

por não estar em conformidade com o princípio da igualdade soberana, princípio derivado

de norma jus cogens do direito internacional contemporâneo da Carta das Nações Unidas e

que regula o relacionamento entre nações. A crítica era baseada em três grandes pontos:

(i) o papel especial dos Estados Unidos da América que autorizava as

publicações nos arquivos da zona raiz no servidor A;

(ii) o fato de que 10 dos 13 servidores raiz estão localizados nos Estados

Unidos da América; e

(iii) o aspecto informal dos acordos relacionados às operações dos

servidores raiz.

Um número considerável de países, liderados por China, Brasil, Índia e

África do Sul, chamava um papel maior no gerenciamento de recursos da Internet. Era

argumentado que tais recursos seriam cruciais também no funcionamento da infra-estrutura

nacional da Internet e assim com impacto em seus interesses nacionais. Eles reconheciam o

papel especial dos Estados Unidos da América nos primórdios da Internet, mas deixaram

claro que o que era adequado na sua fase inicial não mais era adequado no momento atual

em que a Internet se tornara uma mídia global.

O sistema, argumentavam seus críticos, era baseado em confiança, de modo

que o mundo depende de boa vontade dos Estados Unidos da América para o

funcionamento da Internet. Tais críticos reconheciam que os Estados Unidos da América

nunca utilizaram esse poder com má-fé e que o sistema até hoje funciona sem problemas,

mas que não existe garantia jurídica que isso continuará sem problemas. O papel especial

dos Estados Unidos da América em autorizar qualquer publicação de qualquer

modificação, remoção ou acréscimo de arquivos no banco de dados dos servidores raiz foi

entendido como um privilégio injusto com um alto fator de risco para o mundo.

Assim, em teoria os Estados Unidos da América poderiam utilizar esse

privilégio para punir um país ao remover o seu ccTLD da raiz. Como resultado, os usuários

registrados abaixo de tal ccTLD eventualmente seriam impedidos de manter comunicação

com usuários em outros domínios.

De modo geral esses países entendiam mais adequado que um tratado

pudesse garantir maior segurança jurídica ao sistema do DNS.

85

5.8.3. Primeira Fase da CMSI: Genebra, 2003

Finda a primeira fase da CMSI em dezembro de 2003, foram adotados dois

documentos estruturais59: uma Declaração de Princípios60 e um Plano de Ação para

facilitar o efetivo crescimento da Sociedade da Informação e ajudar a eliminar a exclusão

digital. Reunindo representantes dos altos escalões do governo, setor privado, sociedade

civil e organizações internacionais, a fase de Genebra da CMSI configurou uma

oportunidade única para a comunidade global discutir e dar forma à Sociedade da

Informação.

Ao final da primeira fase da CMSI, foi reconhecido que esta tarefa deveria

envolver todas as partes interessadas. Para iniciar o processo, foi solicitado ao Secretário-

Geral das Nações Unidas que fosse estabelecido um Grupo de Trabalho que investigasse e

fizesse propostas de ação para a governança da Internet. Esse Grupo de Trabalho sobre a

Governança da Internet – GTGI (Working Group on Internet Governance – WGIG)

preencheria a lacuna deixada pelos inúmeros especialistas que não chegaram a um acordo

acerca da mais adequada definição do que consistiria “governança da Internet”.

Seguem os trechos correspondentes dos documentos produzidos pela

Primeira Fase da CMSI relacionados à governança da Internet:

59 Analisando a Agenda 21, adotada ao final da Conferência do Rio 92, Nasser (2005, p. 129) defende que onde há a necessidade e possibilidade de um compromisso jurídico, um tratado é celebrado. Quando não se reconhece a necessidade de normas obrigatórias ou não se constrói o consenso favorável ao comprometimento jurídico, declaram-se princípios e se fazem declarações. No caso de identificação de necessidade de ação futura e conjugação de esforços, porém sem a disposição para obrigações jurídicas, se estabelece um plano de ação. Como são compromissos dos Estados, alguns dizem haver aí um grau de juridicidade que implica em soft law. 60 Assim como a Declaração sobre o Meio Ambiente Humano de 1972 pode ser considerada como um documento com a mesma relevância para o Direito Internacional e para a Diplomacia dos Estados que teve a Declaração Universal dos Direitos do Homem, (SOARES, 2003, p.55) a Declaração de Princípios também é entendida como instrumento de soft law que exerce o papel indicador na definição de princípios mínimos que devem idealmente constar nas legislações domésticas dos Estados e de futuros textos de Direito Internacional. Como constatado por Nasser (2005, p.126), das conferências internacionais, fenômeno da diplomacia no século XX, é usual que resultem inúmeros documentos, adotados pelos Estados participantes. Tais documentos podem ser tratados ou instrumentos não vinculantes. Dentre estes se destacam as grandes declarações.

86

5.8.3.1. Declaração de Princípios

48. A Internet tem se transformado em uma facilidade global disponível ao público e sua governança deve constituir um tema central na agenda da Sociedade da Informação. A gestão internacional da Internet deve ser multilateral, transparente e democrática, com total envolvimento dos governos, do setor privado, da sociedade civil e das organizações internacionais. Esta gestão deve garantir uma distribuição eqüitativa de recursos, facilitar o acesso para todos e garantir o funcionamento estável e seguro da Internet, levando em consideração o multilingüismo.

49. A gestão da Internet abrange tanto as questões técnicas quanto as de políticas públicas e deve envolver todas as partes interessadas e as organizações intergovernamentais e internacionais relevantes. A esse respeito, reconhece-se que:

a) a autoridade política para questões de políticas públicas relativas à Internet é direito soberano dos Estados. Eles têm direitos e responsabilidades para com as questões internacionais de políticas públicas relativas à Internet;

b) o setor privado tem tido e deve continuar tendo um importante papel no desenvolvimento da Internet, tanto no campo técnico como no econômico;

c) a sociedade civil também tem desempenhado um importante papel nas questões relativas à Internet, especialmente em nível comunitário, e deve continuar a desempenhar tal papel;

d) as organizações intergovernamentais têm tido e devem continuar tendo um papel facilitador na coordenação das questões de políticas públicas relativas à Internet;

e) as organizações internacionais também têm tido e devem continuar tendo um importante papel no desenvolvimento dos padrões técnicos e das políticas relevantes relacionados à Internet. (tradução nossa)

5.8.3.2. Plano de Ação

13. Para maximizar os benefícios sociais, econômicos e ambientais da Sociedade da Informação, os governos precisam criar um ambiente legal, regulador e de política confiável, transparente e não discriminatório. As ações incluem:

[...]

87

b) Solicitamos ao Secretário-Geral das Nações Unidas que estabeleça e coordene um grupo de trabalho sobre governança da Internet até 2005, em um processo inclusivo que garanta um mecanismo para a plena e ativa participação dos governos, do setor privado e da sociedade civil, tanto dos países em desenvolvimento quanto dos desenvolvidos, envolvendo as organizações e os fóruns internacionais e intergovernamentais relevantes, para investigar e apresentar propostas de ação, conforme apropriado, sobre a governança da Internet até 2005. O grupo deve, entre outras atividades:

i) desenvolver uma definição de trabalho de governança da Internet;

ii) identificar as questões de políticas públicas relevantes para a governança da Internet;

iii) desenvolver um entendimento comum dos respectivos papéis e responsabilidades dos governos, das organizações intergovernamentais e internacionais existentes e outros fóruns, assim como do setor privado e da sociedade civil, tanto de países desenvolvidos quanto de países em desenvolvimento;

iv) preparar um relatório sobre os resultados desta atividade a ser apresentado para consideração e ações apropriadas para a segunda fase da CMSI, em Tunis 2005; (tradução nossa)

5.8.4. O Relatório do Grupo de Trabalho sobre a Governança da Internet - GTGI

Quando o GTGI se reuniu para discutir o assunto, não houve consenso entre

seus membros a respeito das críticas levantadas durante o processo da CMSI a respeito da

ICANN. Enquanto alguns de seus membros argumentavam em favor de uma convenção ou

tratado que pudesse dar mais estabilidade à Internet e que todos os governos deveriam

compartilhar responsabilidade por seu funcionamento estável, os oponentes de um tratado

argumentavam que isso poderia burocratizar o gerenciamento dos recursos essenciais da

Internet, causando uma politização de questionamentos técnicos com resultados

desastrosos para o funcionamento e continuidade de desenvolvimento da Internet.

O único consenso possível de ser alcançado é que alguns princípios sobre

um sistema de gerenciamento deveria ser aperfeiçoado, conforme o parágrafo 48 do

Relatório do GTGI:

- nenhum governo unicamente considerado deve ter um papel preeminente

em relação à governança internacional da Internet;

88

- a forma organizacional para a função de governança será multilateral,

transparente e democrática, com o envolvimento total de governos, o setor privado,

sociedade civil e organizações internacionais;

- a forma organizacional para a função de governança envolverá todas as

partes interessadas e relevantes organizações intergovernamentais e internacionais dentro

de seus papéis respectivos.

Com relação à supervisão da ICANN, o GTGI indicou em seu relatório

quatro diferentes propostas para discussão, deixando aos diplomatas a tarefa de negociar o

tema no processo da CMSI. Apesar de tal flexibilidade, a CMSI, em sua última reunião,

não foi capaz de resultar em mudanças imediatas na supervisão da ICANN ou mesmo de

sua constituição. A análise do Internet Governance Project - IGP é de que isso somente

ocorreu pelo fato de que nenhuma mudança poderia ser feita sem a concordância dos

Estados Unidos da América, que indicaram que não pretendiam realizar qualquer mudança

(UNITED STATES OF AMERICA, 2005).

Mesmo assim, a CMSI iniciou processos de longo prazo que mudarão o

papel dos governos nacionais na política ampla de Internet, especificamente sobre a

ICANN. Quase todos os temas de governança da Internet levantados na CMSI

permaneceram abertos, como o controle unilateral dos Estados Unidos da América sobre a

raiz, a supervisão política da ICANN, o papel dos governos na definição de políticas

públicas para a Internet, entre outros.

5.8.5. Um marco positivo na governança da Internet

Ainda que capítulos anteriores à CMSI apresentem registros esparsos de

decisões relacionadas à governança da Internet, os eventos pós-Genebra merecem

destaque.

Organizações internacionais governamentais como a UIT, OMPI e OMC

vinham até então tomando decisões isoladas e muitas vezes contraditórias com relação a

aspectos específicos de governança da Internet que afetavam os interesses do setor privado

e da sociedade civil, assim como as relações entre governos. Durante esse mesmo período,

89

organizações internacionais não governamentais como a ICANN e grupos sem

personalidade jurídica como a IETF e até indivíduos como Jon Postel também tomaram

decisões que afetam os interesses de toda a Sociedade da Informação. Independentemente

dos méritos de processos como os RFCs, tais decisões nunca seguiram uma moldura

política como a proposta pela CMSI, legitimada pela discussão multistakeholder completa

que reconhece a importância de todas as partes interessadas.

Pode-se dizer que o tema de governança da Internet foi o mais polêmico

dentro da primeira fase da CMSI. Havia nas mesas de negociação diversas posições, não

raro excludentes e contraditórias. Alguns defendiam uma definição de governança

meramente técnica e restrita ao DNS enquanto outros desejavam uma definição mais

ampla, incluindo temas como segurança, propriedade intelectual, proteção ao consumidor e

proteção de dados.

No capítulo 6 será analisada qual foi a decisão acerca do escopo para a

definição de trabalho da governança da Internet.

5.9. Conclusão deste capítulo

Para a localização de dados na Internet é necessário o uso de um sistema

técnico que associe números a determinados nomes de fácil memorização: o Domain Name

System – DNS. Com o afastamento do governo norte-americano no gerenciamento do DNS

na privatização de 1995, haveria a necessidade de indicar alguém para assumir diversas

funções, incluindo as relacionadas ao DNS. Até 1989 havia uma modalidade extremamente

pessoal e informal de governança do DNS: o cientista Jon Postel fazia tudo

individualmente, quando passou a operar sob o nome de IANA.

Com a expansão da Internet, Postel tentou transmitir a supervisão do DNS

para a Internet Society e encontrou oposição da empresa que tinha interesses financeiros no

negócio de DNS, a Network Solutions, Inc. Postel criou o Internet ad hoc Committee –

IAHC, que não obteve resultado concreto. Mais tarde, o International Forum on the White

Paper foi realizado e finalmente após um papel de intervenção dos Estados Unidos da

América a Internet Corporation for Assigned Names and Numbers – ICANN foi

90

constituída em 1997. Em contrapartida, a UIT realizaria sua Cúpula Mundial sobre a

Sociedade da Informação – CMSI e consolidaria a liderança do setor privado no DNS.

Entretanto, com o aumento da percepção global sobre a importância da governança da

Internet, a primeira fase da CMSI gerou grande controvérsia resultando na criação do

Grupo de Trabalho sobre a Governança da Internet – GTGI.

Essa história confusa e repleta por lutas de poder é que marcou a primeira

noção de governança da Internet. Esse tema porém surgiu com uma força inesperada na

CMSI, transformando-se em algo muito maior. O GTGI teria um grande desafio adiante:

apresentar uma definição de trabalho sobre o controverso tema da “governança da

Internet”, de modo a resolver as discussões entre as diferentes visões que entendiam que a

governança seria ou um tema estreito relacionado aos nomes e números do DNS ou um

tema amplo que compreenderia o futuro da Internet e os diversos efeitos políticos, sociais e

econômicos.

91

6. COLABORAÇÃO: GOVERNANÇA

A visão ampla da governança da Internet como modo de colaboração entre

stakeholders

Este Capítulo analisará genericamente o tema, sintetizando a base teórica

utilizada na dissertação com os resultados do Relatório do Grupo de Trabalho sobre a

Governança da Internet – GTGI e as decisões da segunda fase da Cúpula Mundial sobre a

Sociedade da Informação - CMSI.

Governança da Internet é um tema complexo que, entendido na sua forma

ampla, ultrapassa as questões ligadas a nomes e números apresentadas no Capítulo 5.

A governança pode ser entendida sob o prisma do poder. Ao estabelecer

regras claras de como o poder pode e deve ser exercido por vários atores, diminui a

possibilidade de obtenção de ganhos em disputas de pouca transparência. Analisaremos

esse fenômeno na definição de padrões internacionalmente.

6.1. Definição de “governança”

O termo “governança” deriva da palavra grega kybernao e é atrelado ao

verbo latim gubernare, que significa guiar, pilotar, dirigir. Para o GTGI, a definição deve

ser focalizado nesses processos de condução e ser neutra com relação ao ator com o poder

de conduzir em um determinado momento, em outras palavras, enfatizar o ato de

governança ao invés de realizar uma equiparação com governos.

A governança é um termo guarda-chuva debaixo do qual se encontram

diversas modalidades de manifestação, por exemplo, a legislação nacional, a auto-

regulação setorial, os acordos internacionais, os contratos entre particulares, e mesmo

modalidades com uma intensidade jurídica menos formal, como formas de vigilância,

freios e contrapesos, agências regulatórias e sistemas de arquitetura que estimulam

92

determinados comportamentos. É forma ampla para se referir a técnicas de controle. Por

vezes será também utilizado o termo “regulação” em sentido próximo da definição de

governança 61.

O Grupo de Trabalho sobre a Governança da Internet – GTGI, em junho de

2005, divulgou seu Relatório Final, acompanhado de um Background Report (WGIG,

2005) complementar que reflete muito das discussões realizadas pelo GTGI e que, apesar

de não ter o mesmo status que o Relatório Final, pode ser usado como referência em

diversos temas. O Background Report faz referência à noção de governança, que influencia

processos políticos e instituições públicas ao moldar a forma como as pessoas interagem

com o governo e como o governo interage com elas. A governança porém ocorre em outras

áreas da vida social e cada vez mais é reconhecido o papel das organizações da sociedade

civil nas agendas de organizações públicas e privadas, nacionais e internacionais. Assim, a

governança é parte de vários processos distintos relacionados à Internet, incluindo o

desenvolvimento de padrões técnicos e gerenciamento de recursos centrais assim como a

regulação sobre o uso e abuso da Internet.

Embora vital e central em processos globais de governança, o papel da

Organização das Nações Unidas não pode ser exercido de forma isolada. A ONU tem a

vocação para ser o fórum no qual os governos colaborem entre si e com outros setores da

sociedade na gestão multilateral dos assuntos globais. Ao longo dos anos, a ONU e seus

organismos constituintes fizeram contribuições vitais para a comunicação e a cooperação

internacionais em diversas áreas. Mas a ONU e seu sistema precisam ser reformados e

revitalizados (COMISSÃO DOBRE GOVERNANÇA GLOBAL, 1996, p.4) e houve uma

preocupação muito grande nos momentos que precederam a segunda fase da CMSI de que

a ONU pudesse tomar posse da Internet62. Apesar do esclarecimento do próprio Secretário

Geral da ONU de que não era intenção das Nações Unidas dominar a Internet (ANNAN,

2005), as acusações revelam que existe uma preocupação geral sobre como o poder é

exercido.

61 Assim, para os fins deste estudo, diferencia-se o termo “regulação” da definição de Salomão Filho (2001) ,

a qual é voltada especificamente à modalidade de regulação que busca a organização da atividade econômica através do Estado.

62O senador norte-americano Norm Coleman liderou um movimento de pressão política sobre o governo Bush para que os Estados Unidos da América não cedessem seu poder político sobre aspectos de governança da Internet ao sistema das Nações Unidas. Mais detalhes em U.S. Senator: Keep U.N. away from the Internet.

93

6.2 .Soft power, hard power, e a soft law e hard law

Para os professores de ciência política Robert Keohane e Joseph S. Nye Jr.

(2000), a governança é o conjunto dos processos e instituições, tanto formais como

informais, que guiam e restringem atividades coletivas de um grupo. Na introdução da obra

Governance in a Globalizing World, os autores exploram as ligações entre governança e

dois conceitos de poder: soft power e hard power.

O soft power é um meio flexível de atingir objetivos pela atração que estes

oferecem aos atores envolvidos, diferindo do hard power, política que utiliza sanções e

estímulos de poderio econômico e militar para subjugar os demais à vontade do detentor do

poder.

Os conceitos de soft e hard power espelham semelhante divisão no Direito:

a soft law e a hard law. De acordo com Soares (2002, p.127),

o reconhecimento de existirem normas muito flexíveis, que constituiriam conjunto de regras jurídicas de conduta dos Estados, cuja inadimplência seria governada por um sistema de sanções distintas das previstas nas normas tradicionais, possivelmente assimiláveis às obrigações morais versadas nos sistemas obrigacionais internos dos Estados; trata-se da discussão sobre a existência do que se tem denominado de soft law, por oposição às normas tradicionais, então qualificadas de hard law

Essa oposição compõe um espectro de diversas tonalidades: o par soft/hard

law não constitui um sistema binário e cada um deles tem um papel de importância. É

necessário observar que os acordos internacionais que não são concluídos na forma de

tratados, como o caso do resultado da CMSI, também têm uma importância nas relações

internacionais. Freqüentemente os Estados preferem obrigações que não são tratados por

serem mais simples e mais flexíveis para as relações futuras, mesmo apesar de tais

documentos não serem cobertos pela Convenção de Viena sobre o Direito dos Tratados de

1969 e nem mesmo serem fontes do direito no sentido do Artigo 38 do Estatuto da Corte

Internacional de Justiça.

94

Harmut Hilgenberg (2003) aponta diversos motivos pelos quais os tratados

são evitados, dentre os quais destacamos:

- procedimentos mais simples e portanto facilitadores de uma finalização

mais célere;

- evitar procedimentos trabalhosos de aprovação doméstica na ratificação

em caso de aditamentos;

- acordos podem ser celebrados com partes que não possuem poder de

negociar tratados sob o direito internacional.

Com relação ao último ponto, de fato a diplomacia multistakeholder ganha

cada vez mais importância e a CMSI foi um grande exemplo de como as múltiplas partes

interessadas puderam interagir e apresentar seus posicionamentos e defender seus

interesses, produzindo documentos de grande força e legitimidade.

Hilgenberg (2003) também menciona que os acordos não-tratado também

não exigem ratificação, inclusive mencionando o caso norte-americano, cuja prática de

concluir acordos não-vinculantes para evitar envolvimento do Senado é comum.

Os acordos não-tratado seriam concluídos pelo fato dos Estados envolvidos

não pretenderem criar um tratado completo que, no caso de descumprimento, poderia

resultar em uma violação ao direito internacional com execução em cortes internacionais

ou outros mecanismos de resolução de disputas.

Para Hilgenberg (2003), os acordos não terão força vinculante se aqueles

envolvidos procederam a partir da presunção de que suas declarações de forma alguma

representam um comprometimento, mas, ao contrário, são intencionadas a expressar

valores comuns, interesses ou desejos e expectativas incertas. Isso significa que as partes

não apenas excluem o princípio pacta sunt servanda (Artigo 26 da Convenção de Viena

sobre o Direito dos Tratados), mas também a validade de qualquer regra suplementar. Os

acordos não-tratado, conforme a vontade das partes, não estão sujeitos ao direito

internacional dos tratados, mas contém regras governando os relacionamentos entre as

partes e merecem atenção internacional.

Pela ausência de sanção exterior e institucionalizada, a soft law poderia ser

questionada. Bobbio (1999, p.27), ao discorrer sobre a definição de direito em Teoria do

Ordenamento Jurídico, refere-se aos progressos alcançados em obra precedente, Teoria da

95

Norma Jurídica, em que se determinou “a norma jurídica através da sanção, e a sanção

jurídica através dos aspectos de exterioridade e de institucionalização, donde a definição de

norma jurídica como aquela norma ‘cuja execução é garantida por uma sanção externa e

institucionalizada”

A visão jurídica deve ser ampla para a regulação. No dizer de Nasser (2005,

p. 26):

A literatura da soft law, em termos gerais, não se ocupa tanto com o direito propriamente. Seu foco está na descrição mais acurada possível dos regimes regulatórios, entendidos estes de modo mais genérico, como ordem internacional ou governança, ou de modo mais específico, segundo as áreas de interesse, como meio ambiente, comércio, lavagem de dinheiro, e outros. O analisa das relações internacionais como um todo, ou o estudioso de seus problemas específicos, ao tentar entender e explicar o funcionamento ordenado das relações, ou o gerenciamento de regimes reguladores, precisa reconhecer o lugar que têm os fenômenos da soft law dentro do seu universo de análise, sem necessariamente preocupar-se com a distinção entre o que seria direito e o que não o é.

Na aplicação prática, entretanto, a soft law revela ser tão significante

quanto a hard law, compondo, principalmente no direito internacional, um elemento de

técnica jurídica acabado que pode por si só gerar efeitos, e não um mero degrau necessário

para alcançar uma hard law.

Em verdade, os acordos não-tratado podem ser executados de maneira soft

pela criação de mecanismos de controle aos quais as partes voluntariamente se submetem.

Tais mecanismos geralmente estão atrelados a uma pressão internacional ou interna

considerável, e seus resultados estão sujeitos à opinião pública.

Os acordos não-tratado não são substitutos para tratados, mas sim uma

ferramenta independente que pode ser usada para regular seu comportamento em casos

onde, por diversos motivos, um tratado está fora de cogitação.

Quanto à governança da Internet pós CMSI, resta provado que a soft law é

fundamental, pois diversos compromissos não conseguiriam ser negociados através apenas

de hard law. Os documentos da CMSI como a Agenda de Tunis, o Compromisso de Tunis,

o Plano de Ação de Genebra e a Declaração de Princípios de Genebra, assim como as

Declarações Regionais, têm o potencial de desenvolver normas soft law. Elas não são

juridicamente vinculantes, mas são geralmente o resultado de negociações prolongadas e

aceitação por todos os países. O comprometimento de que os Estados-nação e outras partes

interessadas apresentam ao negociar tais instrumentos e em alcançar um consenso

96

necessário é importante elemento para considerar tais documentos mais do que simples

declarações políticas.

Nessa abordagem, evitam-se as discussões acerca da eventual deficiência da

soft law63 dentro do ordenamento jurídico, como o fato de não ser ela uma nova fonte

autônoma do direito internacional64. Conclui-se que, para o estudo de governança, o

elemento essencial é a eficácia da regulação. Tal conclusão nos afasta da vinculação da

norma ao dever ser, como propõe a corrente doutrinária cujo grande expoente é Hans

Kelsen.

Para Kelsen, direito e Estado se confundem, do ponto de vista da ciência

jurídica. O Estado é o feixe das normas que prescrevem sanções de modo estrutural,

coerente e organizado. Apesar da inestimável contribuição à ciência jurídica, a Teoria Pura

do Direito não será empregada para o estudo da governança da Internet, justamente pela

necessidade de abordagem interdisciplinar mencionada na Introdução, em uníssono com a

primeira lição de Salomão Filho (2001, p. 11)

[...] para o estudioso do Direito, escrever sobre regulação de um desafio transforma-se um dever. É imperioso descobrir fundamentos e sistematizar princípios, transformando a regulação de uma técnica em uma ars (boni aequo) no sentido latino próprio do termo. Isso não implica tornar o raciocínio jurídico estanque a análises e considerações vindas de outras áreas do conhecimento. O método interdisciplinar de análise é imperativo em matéria de ciências sociais.

Uma cautela deve ser usada no recurso a outras disciplinas, para que não se

perca de vista o foco principal da pesquisa. As referências feitas a outros campos do

conhecimento até o momento foram necessárias para a compreensão do objeto de

discussão.

O método interdisciplinar combina as condições do mundo do ser com as

exigências do dever ser. É desejado um fundamento para a governança que não seja

exclusivamente aquele emanado do Estado, mas pela vibrante interação entre os

stakeholders. O reconhecimento de múltiplas fontes de poder remete o estudo ao trabalho

de Michel Foucault (2003, 1999).

63 Uma interessante análise da natureza jurídica da soft law sob a luz do direito internacional realizada por

Dinah Sheldon pode ser encontrada em www.asil.org/shelton.pdf 64 Afinal, os fenômenos da soft law, apesar de se assemelharem ao direito enquanto forças de influência sobre o comportamento, dele se diferem por não resultar dos processos considerados pelo ordenamento jurídico internacional como aptos a criarem normas jurídicas (NASSER, 2005, p. 161).

97

6.3. Foucault e poder

Dentre as vertentes teóricas sobre o poder, destacamos a de Michel

Foucault: o poder é uma dominação, que gera estruturas de desigualdade entre indivíduos.

É uma série de nuances que influenciam a vida cotidiana. Suas fontes são múltiplas.

Foucault identifica uma não sinonímia exclusiva entre Estado e poder.

Em Vigiar e Punir, Foucaut (2003, p. 163) apresenta sua análise dos modos

de exercício do poder. Ele contrapõe duas formas de controle social: a disciplina-bloco,

feita de proibições, bloqueios e clausuras, de hierarquias, encerramentos e a ruptura de

comunicação, e a disciplina-mecanismo, feita de técnicas de vigilância múltiplas e

entrecruzadas, de procedimentos flexíveis, funcionais de controle, de dispositivos que

exercem a vigilância mediante a interiorização pelo indivíduo de sua exposição constante

ao olho do controle.

A título de ilustração desse conceito, apontamos a descrição da crescente

importância dos bancos na sociedade reportada por Baptista (1986, p. 18): o banqueiro é

figura singular entre os comerciantes com grande responsabilidade, pois “são coletores de

impostos, aplicadores da regulamentação cambial, fiscais de tributos (mediante

informações que prestam ao Fisco) e até mesmo órgãos de repressão, quando, por exemplo,

são obrigados a recusar o uso de contas bancárias aos emitentes de cheques sem fundo.

Ademais, “(e)stão ainda os bancos por adquirir novas funções públicas, como se verá no

momento de analisar a prova nas TEIF”

De fato, não apenas os bancos adquiriram funções públicas. As funções

públicas se espalham por atores estratégicos em toda a sociedade tal como na idéia da

microfísica do poder de Foucault. O direito tributário, por exemplo, tem a figura da

substituição que é a imputação da responsabilidade pela obrigação tributária a terceiro que

não praticou o fato gerador, mas tem vinculação com o real contribuinte proporcionando

praticidade no recolhimento e fiscalização. A substituição é mecanismo regulatório que

concentra responsabilidades em atores estratégicos de modo a distribuir funções públicas.

98

No caso da Internet, os provedores de serviço de Internet são potenciais pontos de controle

para o monitoramento e repressão a condutas inadequadas por parte dos usuários65.

O pensamento de Foucault revela necessária uma noção de vigilância e

disciplina, de formas mais sutis, privadas, informais e materiais de coerção, permitindo-se

a inclusão da soft law. James Boyle (1997) enfatiza a adequação da teoria de poder de

Foucault para o reconhecimento das fontes não-estatais de poder que freqüentemente

dependem de meios materiais ou tecnológicos para o alcance de determinados objetivos.

As múltiplas forças regulatórias e o modo como sua influência é dada são contrapostas à

pirâmide normativa assegurada por sanções direcionadas a uma população

geograficamente definida cujo centro de gravidade de suas relações repousa

predominantemente no ordenamento jurídico nacional.

A microfísica do poder de Foucault é harmônica e complementar à noção

das teorias de Keohane e Nye (2000): analisam-se todas as várias formas (e não

necessariamente apenas aquelas institucionalizadas pelo Estado e garantidas através de

sanções jurídicas externas) de controle sobre a vida cotidiana.

Portanto, além da hard law e soft law a análise regulatória deve levar em

consideração os esforços dos stakeholders como um todo, facilitando determinados

comportamentos e reprimindo outros de acordo com o interesse público geral, evitando que

benefícios privados sejam obtidos por aqueles com maior poder. Caso contrário, o poder

observado na moldagem do futuro da Internet será ilegítimo e incompatível com o

resultado da Cúpula Mundial sobre a Sociedade da Informação, que levantou em seus

documentos finais princípios de inclusão, transparência, democracia, entre outros que

reforçam cada vez mais a necessidade de mecanismos legítimos de tomada de decisão

multistakeholder.

Os princípios consagrados pela CMSI revelam um amadurecimento do

processo decisório em questões relacionadas à Internet. Os mecanismos informais e

competitivos de poder devem procurar sua legitimação, ou seja, adquirir autoridade.

65 Para Zittrain (2003) em Internet Points of Control, a grande disponibilidade de pornografia online e de

material infrator de direitos de propriedade intelectual influenciou o aumento de esforços em tornar a Internet mais regulável. Iniciativas regulatórias buscam trazer maior efetividade a esse controle ao direcionar esforços de fiscalização sobre os intermediários: os provedores de serviços de Internet (Internet Service Providers – ISPs) ao invés de ter que se preocupar em fiscalizar um número muito maior de usuários individualizados. .

99

Em O Poder de Controle na Sociedade Anônima, Comparato (1983 p.391)

resgata a discussão dos clássicos sobre a legitimação do poder, sendo importante a

combinação das manifestações benignas para uma verdadeira legitimidade:

A questão da legitimidade é inerente a todo e qualquer fenômeno de poder, assim como a da justiça em relação às normas jurídicas, por mais que o positivismo insista em enxotar uma e outra do campo científico. O poder ilegítimo, embora legal e efetivo, será sempre marcado de bastardia; para sua defesa em momentos de crise, só poderá contar com as suas próprias forças e nunca com a adesão dos comandados. Sem dúvida, a transformação da força em direito é uma tendência insopitável de todo detentor do poder, não por razões de ordem ética, mas essencialmente prática. Le plus fort, escreveu Rousseau, n’est jamais assez fort pour être toujours le maître, s’il ne transforme sa force en droite et l’obéissance en devoir. Mas a simples legalização da força não a legitima, na consciência dos comandados. Eis por que a questão da legitimidade não é suscitada pelos que detêm o poder, mas pelos que se lhe submetem, ou que aspiram a possuí-lo

Localizado o problema relacionado à necessidade de uma coordenação das

forças de controle e poder a fim de alcançar legitimidade em um processo de governança,

cumpre examinar quais são os processos na governança da Internet.

6.4. Governança da Internet

Nos primeiros estágios da CMSI os debates de definição centralizavam-se

na escolha entre uma definição “estreita” (narrow Internet governance) que envolvia

somente funções relacionadas à Internet Corporation for Assigned Names and Numbers -

ICANN tratadas no Capítulo 5 e uma definição “ampla” (broad Internet governance) que

parecia cobrir todo e qualquer tema relacionado a governança de Tecnologias de

Informação e Comunicação. Tanto um extremo quanto outro deixa de ter o foco desejado.

A fase de Tunis resolveu a questão a respeito do escopo da governança da

Internet, ao reconhecer que a governança da Internet inclui mais do que nomes e endereços

da Internet. A governança da Internet também inclui outros temas significativos de

políticas públicas, como, entre outros, recursos centrais, segurança e aspectos de

desenvolvimento e temas pertinentes ao uso da Internet, como temas sociais, econômicos e

técnicos.

100

Com base no Relatório do GTGI, a Segunda Fase da CMSI adotou a

seguinte definição de trabalho para a governança da Internet: “Governança da Internet é o

desenvolvimento e aplicação pelos governos, setor privado e sociedade civil, em seus

papéis respectivos, de princípios, normas, procedimentos de tomada de decisão e

programas comuns que moldam a evolução e uso da Internet” (tradução nossa).

Dos procedimentos de tomada de decisão comum, para o Internet

Governance Project (2004, p.9), existem três principais relacionados à governança: 1)

padronização técnica, 2) alocação e atribuição de recursos e 3) formulação e execução de

políticas e resolução de disputas. Cada um caracteriza diferentes processos e expertise,

diferentes métodos de execução e freqüentemente conduzidos por diferentes instituições.

6.4.1. Definição de padrões tecnológicos

A definição de padrões tecnológicos tem a ver com a forma de como

decisões são tomadas com relação aos protocolos de rede, aplicações de software e padrões

de formato de dados (data format standards) que fazem a Internet funcionar. Organizações

que cuidam dessas funções definem, desenvolvem e alcançam consenso sobre

especificações técnicas, as quais são então publicadas e usadas pela indústria para a

fabricação de equipamentos, desenvolvimento de software e prestação de serviços em

modos que asseguram a compatibilidade técnica e sua inter-operação. As funções de

padronização técnica da Internet foram principalmente realizadas por atores não

governamentais.

Cada vez mais as atividades humanas são facilitadas por Tecnologias de

Informação e Comunicação - TICs. Em tais relações, a arquitetura é basicamente o

hardware e software que possibilita a comunicação. Assim, devemos reconhecer o peso da

regulação pela arquitetura no somatório dos vetores regulatórios de TICs. Aquele que

detém conhecimento e possibilidade de modificar os padrões de comunicação detém

grande poder. Essa percepção sobre a relevância da definição tecnológica foi analisada nos

Capítulos anteriores que revelaram a agenda por trás da definição de padrões, protocolos

101

(X.25, IBM SNA e TCP/IP) e mesmo na construção de sistemas como o DNS, tema que

está mais próximo da alocação de recursos.

Como visto na conclusão do Capítulo 4, a definição legítima de padrões

internacionais não pode ser deixada somente na mão do mercado, pelos seus efeitos que

vão além da dimensão técnica e que podem ser apropriados por interesses particulares.

6.4. 2. Alocação e gerenciamento de recursos

Após a definição dos protocolos TCP/IP, outro grande marco em decisão de

arquitetura foi o sistema de nomes de domínio, o DNS. Da mesma maneira como muitos

dos principais recursos da Internet, o DNS surgiu de baixo para cima (“bottom-up”), ou

seja, sem a coordenação regulatória governamental.

O sistema de gerenciamento de nomes de domínio compõe alocação e

atribuição de recursos, o que é uma fase distinta e posterior à definição de padronização.

Quando a utilização de um recurso global, como o espaço de números IP, espectro de rádio

ou códigos nacionais de números de telefone, deve ser exclusivo, sua utilização deve ser

coordenada ou administrada por uma organização ou outra forma de mecanismo.

A autoridade de designação aloca ou divide o espaço de recursos, atribuindo

partes dele a usuários específicos. A autoridade também desenvolve políticas,

procedimentos e regras para guiar as decisões de alocação e atribuição. Essa função iniciou

a controvérsia sobre governança da Internet na qual disputas relacionadas à atribuição de

nomes top-level domain – TLDs culminaram na criação da ICANN.

Assim, a alocação de recursos se difere de definição de padrões técnicos. A

definição de padrões pode implicar um recurso digital que requer uma alocação em regime

de exclusividade quando implementado (p.ex. os padrões técnicos que definem o protocolo

IP criam um espaço de endereços e o protocolo DNS define o espaço de nomes de

domínios). Mas a definição e o alcance de consenso em um padrão é distinto do processo

subseqüente de alocação e atribuição de recursos.

102

No Capítulo 5, foi visto o debate entre os diversos atores no processo que

culminou na ICANN a discussão estreita sobre a governança da Internet, entendendo que

as decisões tomadas a respeito do gerenciamento de nomes e números está atrelada a

questões como propriedade intelectual, liberdade de expressão, privacidade, entre outros66.

6.4.3. Formulação e execução de políticas e a resolução de disputas

A formação de política inclui também sua execução, monitoramento e

resolução de disputas. Envolve o desenvolvimento de normas, regras e procedimentos que

governam a conduta de pessoas e organizações, contrariamente à estrutura e operação da

tecnologia.

Enquanto por um lado a Internet é um canal de comunicação originalmente

arquitetado de modo a preservar a neutralidade, muitos temas de política surgem como

conseqüência de seu uso por um número crescente de atores nacionais e internacionais

regular diversos temas através da arquitetura.

Apesar de ser argumentado que ao abraçar temas de política o escopo de

governança da Internet poderia ficar demasiadamente amplo, são os elos entre temas de

política e as regras e procedimentos de padronização que produzem os problemas mais

significativos de governança.

Quanto ao papel dos governos, é de se observar que desempenham um papel

de destaque na elaboração de políticas públicas, mas que mesmo assim os demais

stakeholders devem ser envolvidos. Além do argumento de que com mais pontos de vista a

decisão final será mais bem embasada, devemos considerar que hoje a Internet é global e

as nações são territoriais portanto a discussão multilateral que apenas inclui governos pode

não ser suficiente. A Internet é atualmente uma plataforma para comunicação aberta e troca

de informações transfronteiriças. Além disso, um consenso de governos nacionais não é o

melhor arauto para identificar o interesse público global. Em política internacional, existe

66 Ver, por exemplo, Milton Mueller, Ruling the Root.

103

a possibilidade de que os governos nacionais se preocupem mais em proteger seu poder

nacional do que promover o interesse público.

6.5. Segunda Fase da CMSI: Tunis, 2005

O Compromisso de Tunis, declarou que os objetivos acordados podem ser

atingidos através do envolvimento, cooperação e parceria de governos e outras partes

interessadas. A cooperação e solidariedade internacional em todos os níveis são

indispensáveis para que os frutos da Sociedade da Informação beneficiem a todos.

O Relatório do GTGI (2005, p.10) indicou a existência de um vácuo no

contexto das estruturas existentes de governança da Internet, visto que não há um fórum

global multistakeholder para endereçar temas de políticas públicas relacionadas à Internet.

Foi concluído pelo GTGI que haveria mérito em criar um espaço para diálogo entre todas

as partes interessadas.

Nesse sentido, a Agenda de Tunis para a Sociedade da Informação

reconheceu a necessidade de iniciar e reforçar um processo transparente, democrático e

multilateral, com a participação dos stakeholders em seus papéis respectivos. Esse

processo poderia vislumbrar a criação de uma moldura ou mecanismos adequados, e

portanto promovendo a contínua e ativa evolução dos atuais dispositivos para juntar

esforços nesse sentido. Foi solicitado ao Secretário Geral da ONU que convocasse um

novo fórum para o diálogo de política multi-stakeholder, o Internet Governance Forum –

IGF.

Seguem-se os trechos da Agenda de Tunis correspondentes à criação do

Internet Governance Forum:

72. Solicitamos ao Secretário Geral da ONU em um processo aberto e inclusivo, ao segundo trimestre de 2006, a convocar um encontro do novo fórum para o diálogo de política multi-stakeholder - chamado de Internet Governance Forum (IGF). O mandato do Fórum é de:

a) discutir temas de políticas públicas relacionados a elementos chave de governança da Internet para estimular a sustentabilidade, robustez, segurança, estabilidade e desenvolvimento da Internet;

104

b) facilitar o discurso entre órgãos lidando com diferentes políticas públicas internacionais relacionadas à Internet que muitas vezes são interrelacionadas e discutir temas que não se encaixam dentro do escopo de nenhum órgão existente;

c) interface com as organizações intergovernamentais apropriadas e outras instituições com temas sob seu escopo;

d) facilitar a troca de informações e melhores práticas, e nesse sentido fazer uso total de expertise das comunidades acadêmica, científica e técnica;

e) aconselhar todos os stakeholders em propor meios de acelerar a disponibilidade da Internet no mudo em desenvolvimento;

f) fortalecer e aperfeiçoar o engajamento de stakeholders nos mecanismos existentes e/ou futuros de governança da Internet, particularmente aqueles de países em desenvolvimento;

g) identificar temas emergentes, trazê-los à atenção dos órgãos relevantes e público geral e, quando apropriado, fazer recomendações;

h) contribuir para capacitação em governança da Internet em países em desenvolvimento, exigindo das fontes locais o conhecimento e expertise;

i) promover e avaliar, em forma continuada, a incorporação dos princípios CMSI em processos de governança da Internet;

j) discutir, entre outros, temas relacionados a recursos críticos de Internet;

k) ajudar a encontrar soluções aos temas emergentes do uso e mau uso da Internet, de preocupação particular aos usuários do dia a dia;

l) publicar seus procedimentos.

73. O IGF, em sua operação e função, será multilateral, multi-stakeholder, democrático e transparente. Para tal fim, o IGF proposto poderia:

a) aperfeiçoar as existentes estruturas de governança da Internet, com ênfase especial na complementaridade entre todos os stakeholders envolvidos neste processo - governos, entidades empresárias, sociedade civil e organizações inter-governamentais;

b) ter uma estrutura leve e descentralizada que seja sujeita a uma revisão periódica;

c) encontrar-se periodicamente, conforme requerido. Os encontros IGF, em princípio, podem ser realizados em paralelo com principais conferências relevantes das Nações Unidas, entre outras, para usar um suporte logístico.

74. Encorajamos o Secretário Geral da ONU a examinar uma gama de opções para montar o IGF, levando em consideração as competências comprovadas de todos os stakeholders em governança da Internet e a necessidade de assegurar seu total envolvimento;

77. O IGF não terá função de supervisão e não substituirá dispositivos, mecanismos, instituições ou organizações existentes, mas as envolverá e tirará proveito de sua expertise. Será constituído como um processo neutro, não-duplicativo e não-vinculante. Não terá envolvimento em operações técnicas ou do dia a dia da Internet. (tradução nossa)

105

As declarações da CMSI elogiaram os "existentes dispositivos de

governança da Internet", os quais foram descritos como aqueles em que o setor privado

toma a liderança em operações do dia a dia e com inovação e criação de valor nas bordas.

O documento, entretanto, não endossou a ICANN e não a menciona pelo nome, um reflexo

da continuada falta de aceitação de muitos governos.

De todos os resultados da Segunda Fase da CMSI, a criação do IGF merece

destaque como um fórum multistakeholder para dar aconselhamento sobre governança da

Internet, que pode ser usado para o desenvolvimento de princípios de políticas públicas

necessárias para orientação da governança da Internet no futuro.

6.6. Conclusão deste capítulo

O Capítulo 6 buscou apresentar a governança em amplo escopo,

considerando todos os vetores que exercem influência como na microfísica do poder.

Como visto no Capítulo 5, os atores mais articulados ou que tinham maior poder são os

que tomaram as principais decisões na questão de nomes e números, o que gerou grande

descontentamento de diversos stakeholders.

A governança é o melhor meio para legitimar o poder ao promover

colaboração. A interação entre diversos stakeholders e a subscrição de atores

internacionais mais tradicionais como governos em agendas altamente complexas e com

detalhes tecnológicos pode ser facilitada com o uso de mecanismos suaves (soft), de

melhor aceitação, como recomendações não vinculantes.

Na Segunda Fase da CMSI a governança da Internet foi entendida como o

conjunto de ações relacionadas ao gerenciamento de nomes e números, mas

compreendendo também o estabelecimento de padrões tecnológicos e definição de

políticas públicas. É muito importante a devida representação dos interesses globais no

estabelecimento dos padrões técnicos que como analisado possuem impactos sociais,

culturais, políticos e econômicos. O relatório do GTGI mostra que a Internet atraiu atenção

internacional e indica papéis dos stakeholders e propôs a criação de um fórum.

106

A participação de entidades da sociedade civil e do setor privado foi

essencial para despertar a consciência da importância da governança da Internet,

apresentando suas opiniões que influenciaram a tomada de decisões, mesmo sem o status

de sujeitos de direito internacional. Semelhantemente ao papel das organizações não

governamentais no que diz respeito à proteção do meio ambiente (SOARES, 2003, p.59),

os representantes da sociedade civil, do setor privado e mesmo aqueles que se

manifestaram em sua capacidade pessoal, enquanto usuários da Internet, contribuíram para

a conscientização da opinião pública e para o debate na formação do conceito de

governança da Internet.

A soft law apresenta elementos positivos para tratar da governança da

Internet. Em primeiro lugar, é uma abordagem menos formal e assim não exige o

comprometimento oficial dos Estados e, portanto, reduz riscos políticos potenciais. Em

segundo lugar, é flexível o suficiente para facilitar o teste de novas abordagens e ajuste a

rápidos desenvolvimentos no campo de governança da Internet, que é caracterizado por

muitas incertezas. Em terceiro lugar, a soft law fornece uma maior oportunidade para uma

abordagem multistakeholder do que a abordagem internacional restrita a Estados e

organizações internacionais.

Um dos mais importantes elementos da segunda fase da CMSI foi o

comprometimento de criação do IGF que pode contribuir para a colaboração. A criação do

IGF tem muito em comum com a CMSI, sendo multi-stakeholder, não vinculante, criada

pela ONU, e capaz de lidar com um amplo escopo de temas de Internet e política de

tecnologia. No mínimo o IGF parece um método adequado de continuar o trabalho iniciado

pela CMSI.

Tome-se por exemplo a questão do princípio fim-a-fim.

107

7. DA COMPETIÇÃO RUMO À COLABORAÇÃO: O PRINCÍPIO

FIM-A-FIM

Aperfeiçoamento da governança na regulação pela arquitetura através do IGF

Foram apresentados os desenvolvimentos na governança da Internet e como

a comunidade global cada vez mais busca aperfeiçoar a governança estreita da Internet

Corporation for Assigned Names and Numbers – ICANN, mas que além da alocação de

recursos dois outros processos importantes devem ser considerados: a formulação de

políticas públicas e a definição de padrões tecnológicos.

Como a regulação através da arquitetura pode ser exercida na definição de

padrões em favor de interesses particulares, tentativas de dominação das estruturas de

padronização técnica devem ser reprimidas.

Historicamente, na Internet, boa parte da definição de padrões foi realizada

informalmente, como no caso da participação individual de Jon Postel no sistema de nomes

e números ou mesmo através de grupos informais como a Internet Engineering Task Force

– IETF que trabalha através dos Requests for Comments – RFCs. Ainda hoje parte

significativa dos padrões é definida por grupos informais, sendo que os órgãos

internacionais como a UIT ou ISO, apesar de realizar um certo papel, não recebe ainda

grande destaque67.

A dissertação é dedicada ao estudo do processo de governança envolvendo a

definição de padrões tecnológicos, mas o Capítulo 5 foi dedicado à questão de alocação

dos nomes e números para tomar o caso da ICANN como exemplo de críticas de nível de

governança. Críticas semelhantes podem também ser feitas às instituições atualmente

responsáveis pela definição de padrões tecnológicos, independentemente dos seus méritos:

apesar de a IETF ser genericamente conhecida como um ambiente aberto68, colaborativo e

transparente, a complexidade das discussões realizadas nos Requests for Comments acaba

67 A ITU Telecommunications Standardization Sector (ITU-T) vem cada vez mais desempenhando

importante papel na arquitetura das novas redes baseadas em tecnologias de Next Generation Networking. 68 Berners-Lee (2000, p. 47), descreve a IETF como um fórum internacional aberto de pessoas que se

correspondiam principalmente por e-mails, mas que também se encontravam fisicamente três vezes por ano e que qualquer um com interesse em qualquer grupo de trabalho pode contribuir.

108

gerando uma meritocracia e dificuldade para que os demais stakeholders compreendam as

dimensões políticas, jurídicas e sociais das decisões tomadas.

Este Capítulo vai se concentrar na coordenação sobre definição de padrões,

e o papel que pode ser desempenhado pelo IGF, inclusive como uma plataforma para que a

IETF69 aumente seu nível de governança internacional.

7.1. Internet Engineering Task Force – IETF

A IETF se descreve no RFC 3160 (IETF, 2001) como um grupo de pessoas

que se organizaram espontaneamente com interesse de contribuir para a engenharia e

evolução de tecnologias de Internet. É o principal grupo engajado no desenvolvimento de

novas especificações de padrões Internet. O IETF existe enquanto um grupo informal, mas

não é uma entidade jurídica e não possui diretoria, conselho de administração, membros ou

deveres.

O processo de padronização da Internet é, de acordo com o RFC 2026 uma

atividade da Internet Society organizada e gerenciada em nome da comunidade da Internet

pela Internet Architecture Board – IAB e o Internet Engineering Steering Group – IESG.

A IETF começou a realizar reuniões públicas quatro vezes por ano a partir

de janeiro de 1986. Em seu quinto encontro, no começo de 1987, 50 pessoas apareceram e

espontaneamente se organizaram em grupos de trabalho. O canal para atividades

relacionados à Internet criado pela IETF envolvia cientistas de computação e engenheiros

de setores público e privado. A presença chegou a 200 em 1989 e em 1992 mais de 650

69 Apesar de centralizarmos as discussões sobre a IETF, é necessário mencionar a existência de outros grupos

onde decisões referentes à padronização técnica são tomadas, como o World Wide Web Consortium – W3C. Ele não desenvolve padrões de Internet em si, mas desenvolve importantes padrões e tecnologias relacionados a estruturas de dados e formatos que são comumente usados na Internet. Tais aplicações são localizadas no topo dos protocolos Internet,,assim como outras aplicações produzidas por empresas privadas ou pequenas organizações. Algumas vezes os padrões da W3C são voltados a facilitar formas de governança, como no caso da Platform for Internet Content Selection (PICS), projetada para permitir que usuários finais filtrassem conteúdo de acordo com critérios previamente estabelecidos. O trabalho da W3C sobre padrões para a Internet para facilitar acesso a pessoas com deficiências também é um papel de governança.

109

participantes mostravam a vibrante atividade deste grupo informal e aberto (MUELLER,

2004, p.91).

Diferentemente das comunidades de padronização que representavam os

grandes fornecedores e empresas de telefonia, a jovem IETF considerava a

interoperabilidade e poder ao usuário final como as normas básicas. Os próprios padrões

não eram proprietários. Toda a documentação era aberta, sem reserva de direitos autorais e

disponível online. Essa comunidade acreditava que o valor das idéias técnicas deve ser

mensurado não por votos mas sim por provas empíricas de efetividade ou, na linguagem

dos engenheiros, pelo código funcional (running code).

A IETF é um grupo criado e governado de forma independente de outros

grupos tradicionais como o International Standards Organization (ISO) ou de Estados-

Nação. A IETF é aberto à candidatura para ingresso como membro e é defensora de

decisões tomadas pelo consenso. A IETF pode ser entendida como um microssistema de

governança, no qual a hierarquia é estabelecida pelo respeito à sabedoria e conhecimento

de seus membros: o falecido Jon Postel praticamente controlava sozinho o sistema de

números de endereços IP.

Os valores de abertura da IETF permitem que qualquer pessoa possa

apresentar sua proposta de um novo padrão através de um Request for Comments (RFC).

Apesar de valiosas, as formas de discussão da IETF acabavam invariavelmente requerendo

precioso tempo em debates quase filosóficos. O então pesquisador do Cern – Laboratório

Europeu de Física de Partículas, Tim Berners-Lee (2000, p.165), decidido a desenvolver

um sistema de distribuição de informações em hipertexto (o que mais tarde constituiria a

World Wide Web) precisava de um meio alternativo de implementar suas idéias.

Segundo relato de Berners-Lee, um processo aberto como o do IETF era

importante, porém deveria ser mais rápido e mais eficiente, além de permitir indivíduos

representando empresas e organizações alcançaram um entendimento comum. Ele queria

que o World Wide Web Consortium funcionasse em um processo aberto como o da IETF,

mas que fosse mais rápido e mais eficiente, pois a velocidade era necessária70.

Como a IETF não possui personalidade jurídica e não é um órgão oficial de

70 De acordo com entendimentos pessoais mantidos em 12.02.2006 em Malta, no seminário “Internet Governance – The Way Forward: From Tunis via Malta to Athens” com Avri Doria, ativa participante do IETF e presidente da Internet Research Task Force’s Routing Research group, a lentidão mencionada por Berners-Lee foi enfrentada nas mais recentes reformas da IETF.

110

padronização, Berners-Lee entendeu que não era necessário submeter suas propostas para a

criação da World Wide Web através do procedimento de RFCs da IETF, que poderia não

ser suficientemente dinâmico. Assim, pouco a pouco foi sendo criado um outro grupo, o

World Wide Web Consortium. De modo semelhante, aqueles que hoje não estão

interessados em submeter suas propostas de padronização através de RFCs da IETF podem

se organizar de outro modo para distribuir suas tecnologias.

Para Mueller (2005), esse processo de escolha da melhor instância para

definição dos padrões (ou forum-shopping) é natural, principalmente conforme cada vez

mais diversas são as TICs e portanto múltiplos serão os órgãos de padronização. De modo

geral, isso criaria um efeito positivo, pois, qualquer tentativa de centralizar e tornar certas

atividades de padronização obrigatórias em um determinado grupo, cria a possibilidade de

sua captura por governos e empresas e usados para fins particulares, muitas vezes

prejudicando a inovação e competição.

A liberdade e flexibilidade na padronização, portanto, tem pontos vantajosos

ao deixar o mercado livre de padrões vinculantes para novas criações. Os padrões que não

são interessantes eventualmente acabariam sendo rejeitados.

Entretanto, parece que não é isso o que está acontecendo, principalmente

quanto ao princípio fim-a-fim no caso do serviço de Internet banda larga e das futuras

redes a utilizar o Next Generation Networking.

7.2. Retomando a análise do princípio fim-a-fim

Sendo a definição de padrões um dos elementos da governança da Internet e

consideradas as observações do Capítulo 3, que indicou argumentos em defesa da

importância do princípio fim-a-fim na arquitetura da Internet atual, para a inovação,

abertura e liberdade de expressão, e um ambiente que estimule a competição, retoma-se

sua análise como um caso em que tais decisões devem ser tomadas devidamente.

A lição que poderia ser tirada do Capítulo 3 é que a Internet, ao longo de

seus anos, passou por diversas mudanças e dilemas e tem não apenas sobrevivido, como

111

inclusive evoluído e expandido. Mas o que parece ser apenas uma decisão técnica com

impactos mínimos é, para diversos juristas71, um ponto decisivo que terá o maior impacto

de toda a história das Tecnologias de Informação e Comunicação - TICs. Será uma

mudança de controle inédito.

Para Lessig (2001, p. 35), o princípio fim-a-fim é o princípio de maior

importância para o sucesso da Internet. Ele já estava implícito na área de comunicação e

computação, mas foi pela primeira vez estruturalmente formalizado por Jerome Saltzer,

David Reed e David Clark em 1981, no documento "End to End Arguments in System

Design” que tratava das funções dentro de uma rede (SALTZER, REED, CLARK, 1981).

De acordo com o princípio fim-a-fim, os próprios protocolos de

comunicação por onde a informação flui devem ser mantidos o mais simples possível. As

funções necessárias por aplicações devem ser executadas nos fins. Assim, a complexidade

e inteligência da rede são mantidas longe da rede em si, proporcionando simplicidade e

flexibilidade. A rede é simples e as aplicações, inteligentes.

Uma conseqüência desse projeto é um princípio de neutralidade, de não-

discriminação entre aplicações. Os recursos físicos da rede destinados ao transporte dos

pacotes de dados devem fornecer um amplo escopo de recursos que não seja destinado ou

otimizado para uma aplicação específica, diferentemente do cenário atual em que atores

interessados em remover a neutralidade da Internet buscam adquirir mais poder de

controle, tornando a Internet cada vez um ambiente menos livre e reduzindo o potencial de

competitividade e inovação72.

71 Entre os estudos centralizando a importância do princípio fim-a-fim no futuro da Internet, é possível

apontar para a palestra de Lawrence Lessig, The Architecture of Innovation, argumentando que o princípio fim-a-fim traz um commons criativo para a Internet.. A Stanford Law School promoveu em 01.12.2000 um debate a respeito dos valores em jogo relacionados ao princípio fim-a-fim na conferência The Policy Implications of End-to-End. Paul A. David, em The Beginnings and Prospective Ending of ‘End-to-End’, defende a manutenção do princípio fim-a-fim argumentando que sua abertura é um bem público cuja perda potencial à sociedade deve ser calculada ao se pensar em adicionar medidas de segurança na rede. Para David D. Clark e Marjory S. Blumenthal, em Rethinking the Design of the Internet: The End to End Arguments vs. the Brave New World, o princípio fim-a-fim é importante porém está ameaçado pelo risco de segurança nas transações realizadas pela Internet. No Written Ex Parte preparado por Mark A. Lemley e Lawrence Lessig, In re Application for Consent to the Transfer of Control of Licenses MediaOne Group, Inc. to AT&T Corp., (F.C.C. 1999),o crescimento e a inovação na Internet dependem fundamentalmente da arquitetura fim-a-fim. Inúmeros outros estudos jurídicos foram realizados a respeito do impacto regulatório do princípio fim-a-fim.

72 Dentre diversos teóricos juristas que tratam desse problema, vale destacar Lessig (1999, 2005, 2006), Zittrain (2003, 2006), e, confirmando os temores futurólogos de Zittrain e Lessig, o relato do que já acontece no Canadá por Geist (2005). Zittrain e Lessig também já indicavam exemplos isolados do aumento de controle na rede. Assim como os juristas vêm tratando de assuntos cada vez mais técnicos, os

112

O princípio fim-a-fim permite um maior ambiente competitivo ao conectar

uma ampla variedade de aplicações na rede. Ademais, não existe um ator ou grupo de

atores particulares que seja beneficiado estrategicamente para influenciar o ambiente da

rede a seu favor, o que também contribui para a competitividade e inovação.

A decisão de manter o centro da rede simples e barato acabou se mostrando

altamente valiosa. O princípio fim-a-fim elimina a dependência da criatividade de um

pequeno grupo de inovadores que trabalhavam para as entidades que tinham relação com o

desenvolvimento da rede. A inovação era oferecida a qualquer indivíduo conectado que

quisesse desenvolver e implementar uma nova forma de sua utilização. Com o princípio da

neutralidade, a Internet criou um ambiente de competição no qual os inovadores sabiam

que suas invenções seriam usadas se fossem úteis. Ao manter o custo de inovação baixo,

ela encorajava uma extraordinária quantidade de novas aplicações em muitos diferentes

contextos. Para dar alguns exemplos, a telefonia Internet de voz sobre IP (Voice over IP –

VoIP), a transferência de arquivos em redes peer-to-peer73 e mesmo o comércio eletrônico

são aplicações muito além do que estava na expectativa inicial dos líderes encarregados da

criação da Internet e mesmo daqueles que, mais tarde, criaram a World Wide Web.

Conforme foi visto no Capítulo 3 , mesmo o e-mail, que foi a primeira grande aplicação de

relevância da Internet, era um subproduto não-intencional que surgiu espontaneamente na

rede.

No modelo em que poucas empresas controlam toda a rede, a inovação pode

ser prejudicada se o controle for usado para proibir todos os usos que não são condizentes

com os interesses dessas empresas.

Conforme visto no Capítulo 3, a arquitetura da Internet é dinâmica. Assim,

é possível que aconteça uma mudança de seus protocolos fundamentais, modificando o

futuro da rede significativamente. A arquitetura fim-a-fim é a origem do sucesso do

crescimento da Internet, mas devemos reconhecer que as arquiteturas centralizadas ou

verticalizadas trazem vantagens econômicas para os que as implementam.

cientistas de computação também vêm apresentando estudos alertando para os problemas jurídicos que podem surgir com a mudança de paradigma tecnológico. Dentre eles, recomenda-se a leitura de Clark e Blumenthal (2001).

73 Uma rede peer-to-peer é uma rede que depende do poder de computação e largura de banda dos próprios participantes da rede ao invés de depender de um número relativamente baixo de servidores. O compartilhamento de arquivos contendo áudio, vídeo ou qualquer outro dado é uma prática comum, assim como a transmissão de dados de telefonia. Uma rede puramente peer-to-peer não tem a noção de clientes e servidores pois seus nódulos funcionam tanto como clientes e servidores simultaneamente na rede.

113

Essas redes verticalizadas permitem um controle de cada passo dos serviços

oferecidos, incluindo áreas previamente separadas da Internet como a televisão e a

telefonia fixa e móvel. Tais evoluções poderiam se tornar uma ameaça a certos tipos de

aplicações e usos da rede que competem com os outros serviços oferecidos pelo grupo

econômico que fornece o acesso à Internet.

Um exemplo dessa ameaça é a prática de algumas empresas de telefonia que

fornecem serviços de acesso de banda larga à Internet em bloquear ou prejudicar o tráfego

de dados relacionados ao Voice over IP - VoIP. Para elas, o uso de uma aplicação VoIP

significaria uma perda de receitas que seria obtida com tarifas de chamadas de longa

distância e assim, em seus serviços de acesso à Internet, utilizam mecanismos que

diferenciam os pacotes de dados relacionados ao tráfego de VoIP, prejudicando-o.

7.3. As possibilidades de redes inteligentes

Para o estudo “End to End Arguments in System Design”, a segurança

utilizando criptografia é um dos exemplos de função que, se colocada em um nível mais

baixo do sistema (ou seja, dentro da rede e não em seus fins) pode gerar em redundância ou

agregar pouco valor. Deve ser ressaltado que o estudo de Saltzer, Reed e Clark é de 1981,

época em que os paradigmas tecnológicos eram muito diferentes.

As teorias que defendem o princípio fim-a-fim devem ser complementadas

pelo RFC 3724 “The Rise of the Middle and the Future of End-to-End: Reflections on the

Evolution of the Internet Architecture” (IETF, 2004) editado por James Kempf e Rob

Austein.

O RFC 3724 mostra tendências opostas ao princípio fim-a-fim, que

continua a fornecer uma base sólida para o trabalho da Internet Engineering Task Force -

IETF mas cujos parâmetros indicados no RFC 1958 cada vez mais são questionados em

vários níveis técnicos que não serão tratados nesta dissertação74.

74 Para detalhes, recomenda-se consultar a íntegra do RFC 3724,

114

Entre as tendências de mudança do princípio fim-a-fim o RFC 3724 lista (i)

a falta de confiança entre usuários e a demanda para que os operadores de rede

implementem mecanismos de inteligência na rede para contribuir a alcançar um ambiente

de maior segurança; (ii) novos modelos de serviço que dependem de uma eficiente

transmissão de dados para que sejam úteis, como a transmissão de voz. Diferentemente de

um web site ou uma mensagem de e-mail, que pode demorar tempo para carregar devido a

uma instabilidade da rede, a transmissão de voz deve ter uma taxa mínima de entrega de

dados, garantida por um sistema de inteligência na rede de Qualidade de Serviço (Quality

of Service – QoS); (iii) interesses de provedores de acesso de Internet banda larga, que

podem ganhar um diferencial no mercado ao negociar com determinados prestadores de

serviços uma taxa de transferência mais rápida para suas aplicações, dando preferência no

tráfego de seus dados em detrimento ao tráfego de outras informações, contrariamente ao

princípio de neutralidade.

Os sistemas designados para determinar o conteúdo e origem de pacotes e

realizar discriminação entre eles, que podem ser inevitáveis dadas as preocupações de

segurança e o crescimento do comércio eletrônico fazem com que a rede fique menos

neutra do que o modelo fim-a-fim75.

7.4. Papel dos provedores de serviço (ISPs) na mudança de controle

Os provedores de serviço de Internet (Internet service providers – ISPs)

também têm sido considerados peças estratégicas que facilitam a efetivação da lei. De

acordo com Michael Geist (2005), os legisladores querem que os ISPs os ajudem com

investigações em crimes eletrônicos, os pais querem que eles filtrem conteúdo inadequado,

e os detentores de direitos autorais querem que eles acabem com as infrações. Jonathan

Zittrain (2003) também identifica movimento semelhante no estado da Pennsylvania, onde

leis locais obrigam os ISPs a bloquear comunicações em base a certos pontos identificados

como perniciosos.

75 Vide trabalho de Hans Kruse, William Yurcik e Lawrence Lessig, The InterNAT: Policy Implications of

the Internet Architecture Debate

115

Apesar da busca em fazer com que os ISPs sejam os pontos estratégicos

responsáveis pelas condutas realizadas pela Internet, de forma geral os provedores de

serviços têm tido um resultado positivo em manter o princípio de neutralidade da rede.

O princípio da neutralidade permite que os ISPs argumentem que apenas

transportam pedaços de dados sem realizar qualquer discriminação, preferência ou

avaliação sobre o conteúdo. Portanto os provedores de serviços de Internet ficam imunes

de responsabilidade pelos eventuais danos gerados pelos dados que trafegaram através de

seus sistemas76, da mesma forma como uma operadora de telefonia não pode ser

responsabilizada por eventual injúria ocorrida durante uma conversa telefônica

transportada por seus sistemas.

Para os usuários de Internet, o princípio de neutralidade de rede significa

que uma ampla gama de escolha em mercadorias, serviços e conteúdo está disponível

independentemente do ISP usado.

Apesar dos ISPs competirem em preço, serviço, velocidade e, em alguns

casos, oferecendo conteúdo restrito a assinantes, eles não têm diferenciado o conteúdo ou

aplicações que podem ser acessadas. A experiência da Internet é basicamente a mesma

para o usuário independentemente do ISP utilizado. Michael Geist relata, porém, a

tendência recente de ISPs violarem o princípio da neutralidade, usando técnicas para

priorizar seu próprio tráfego em detrimento dos competidores.

No caso de telefonia por Internet, as operadoras de telecomunicações

tradicionais são incumbents e os inventores de programas de Voice over IP - VoIP são

disruptors.

Em alguns países, houve bloqueio de serviços de VoIP para proteger o

mercado da operadora de telecomunicações. Presentemente, a VoIP está sendo considerado

uma aplicação revolucionária, que não apenas fará a demanda por banda larga explodir

mas também tornará obsoleto seu competidor, o serviço de telefonia. No Brasil, a Telemar

proibiu contratualmente os usuários de seu serviço de Internet banda larga Velox a

contratar serviços de VoIP (SANTOS, 2005). Na Europa, o mesmo tem ocorrido e a

Vodafone na Alemanha tratou o programa Skype como conteúdo inapropriado.

76 Para analise detalhada da responsabilidade dos provedores de serviços de Internet no Brasil, vide obra de

Marcel Leonardi.

116

Os ISPs da Europa também estão sendo pressionados para bloquear acesso a

sistemas peer-to-peer como o BitTorrent77, que são usados para distribuir arquivos tanto

autorizados como não-autorizados sob o ponto de vista do direito autoral. A Motion

Picture Association e a International Federation of the Phonographic Industry estão

propondo78 que os ISPs da Europa implementem tecnologia de filtragem para bloquear

serviços e web sites que as associações acreditam ser substancialmente dedicados ao

compartilhamento ilegal de arquivos e serviços de download.

No Canadá, Geist (2005) relata que o ISP de banda larga por cabo Shaw

Communications oferece um serviço VoIP premium que utiliza tecnologias para diferenciar

o tráfego e priorizar a transmissão de dados referentes ao seu serviço de telefonia pela

Internet por uma taxa mensal. O impacto para outros provedores de serviços de VoIP é que

sua velocidade, comparada à do serviço da Shaw, ficará em menor velocidade e portanto

com uma dificuldade em competição. Ainda no Canadá, Geist relata que houve

especulação que a Rogers, ISP de banda larga por cabo, estava bloqueando acesso ao

BitTorrent bem como determinados serviços de música do iTunes. A Rogers inicialmente

negou as acusações, mas hoje admite que usa "traffic shaping" para priorizar algumas

atividades online. Como resultado, as atividades que a Rogers entende como de menor

prioridade podem deixar de funcionar efetivamente.

O bloqueio de web sites, serviços e algumas aplicações pode não ser o

limite. Alguns ISPs vêem o potencial para aumentar sua receita ao cobrar de web sites ou

serviços um valor para um serviço de prioridade aos clientes. Nos Estados Unidos da

América, a BellSouth causou grande alvoroço ao anunciar (KRIM, 2005) que haveria um

potencial para cobrar que algumas empresas poderiam pagar para ter acesso privilegiado,

de modo que o Yahoo! poderia pagar para ter acesso mais rápido que o Google.

Lessig (2005) relata que em março de 2005, o primeiro caso nos Estados

Unidos da América de um ISP de banda larga que violou o princípio de neutralidade de

rede foi encerrado com multa aplicada pelo Federal Communications Commission – FCC.

Madison River Communications, uma ISP norte-americana de banda larga, tentou bloquear

o acesso de seus clientes ao serviço de VoIP de uma concorrente, a Vonage. A Madison

77Bittorrent é o nome de uma aplicação que utiliza um protocolo de distribuição de arquivos em rede peer to

peer, utilizada para fazer uma ampla distribuição de grandes arquivos. Mais detalhes em: <http://en.wikipedia.org/wiki/Bittorrent>.

78Vide no web site do European Digital Rights, autor? ISP Self-Regulation Proposal Entertainment Industry,

117

River foi multada por infração de princípios de competição quando a Vonage mostrou ao

FCC que ela estava bloqueando acesso a portas críticas de comunicação.

O princípio fim-a-fim encoraja a inovação conforme novos concorrentes

apresentam novos modelos de negócio, afirmou o presidente do Federal Communications

Commission, Michael Powell (FCC, 2005). Para ele, a indústria deve aderir a certas

normas de proteção ao consumidor para que a Internet continue sendo uma plataforma para

inovação.

Enquanto a decisão de Powell contribui para a preservação do ambiente de

inovação na Internet ao impedir técnicas como bloqueio de portas de comunicação, outras

formas mais sutis de competição pelo controle da Internet, usando a regulação pela

arquitetura ainda não contam com uma segurança jurídica adequada.

Diante de ameaças de invasões e ataques à Internet que muitos especialistas

estão prevendo, mudanças tecnológicas estão sendo preparadas que podem afetar o

princípio fim-a-fim. Existem algumas idéias mudando a forma como os roteadores na

Internet funcionam, tentando deixá-los mais espertos de modo a ter discernimento acerca

dos dados por eles encaminhados. Isso vai contra o princípio fim-a-fim que muitos juristas

argumentam ser uma força em prol da liberdade.

7.5. O debate sobre o princípio fim-a-fim na CMSI

Essas discussões foram levantadas no contexto da CMSI. Mas o GTGI em

vários documentos defendeu a necessidade de manutenção do princípio fim-a-fim. Vale

destacar o Draft WGIG issue paper on Network and Information Society (WGIG, 2005c),

que fala do princípio da transparência79:

Outro importante princípio de projeto sendo questionado tem relação com a transparência. Transparência, nesse contexto, significa que a única tarefa para a rede é o transporte entre dois nódulos remotos ou peers. A rede processa pacotes para assegurar a otimização de transporte e robustez enquanto deixa os níveis de informação e aplicação intocados. Isso é uma importante presunção que permitiu muitas aplicações inovadoras fim-a-fim serem criadas sem

79Que, para os propósitos da dissertação, deve ser equiparado ao princípio da neutralidade.

118

que os desenvolvedores ficassem muito preocupados com a complexidade da rede subjacente.

A crescente preocupação atual com segurança induz usuários e operadores de rede a distinguir entre o tráfego bom e ruim com novos aparelhos que filtram o tráfego hostil (firewalls). Estas arquiteturas vão contra a total transparência da rede. Tais aparelhos são freqüentemente configurados como filtros, sem inteligência ou a capacidade de adaptação, oferecendo alguns aspectos de segurança mas deixando muitos outros sem serem resolvidos. Também a respeito deste ponto a literatura recente aponta para uma imperfeição de certas arquiteturas que abordam a segurança de uma forma maximalista sem flexibilidade e violando características essenciais de design da Internet.

Outros desenvolvimentos, não necessariamente relacionados a segurança, podem levar a uma crescente inteligência dentro da rede. Então, a Internet de amanhã pode desenvolver um equilíbrio entre a transparência total e algum tipo de processo embarcado dentro da rede

O Background Report, (WGIG, 2005b) no ponto 24, nota o princípio fim-a-

fim como relacionado à neutralidade da Internet, principalmente relacionada com o

transporte eficiente de pacotes, permite sua inteligência residir principalmente nos fins das

redes através de aplicações em computadores, servidores, telefones celulares e outros

aparelhos. Isso permitiu o desenvolvimento de um amplo escopo de novas TICs nos fins e

transforma a Internet em uma importante ferramenta dentro do mais amplo contexto de

desenvolvimento social e econômico.

Ele ainda complementa afirmando que esse é um importante elemento em

qualquer consideração de disposições sobre governança da Internet. Qualquer proposta

para mudança deveria enfrentar a questão sobre se tais elementos devem ser afetados de

uma maneira ou outra, pois importantes para o funcionamento da Internet.

O GTGI ainda notou, através de respostas ao seu Questionnaire (WGIG,

2005d), que o Fórum poderia também promover o debate público em temas de relevância e

a adoção de princípios comumente acordados como o da transparência. Vale também

observar que o GTGI elaborou um Draft WGIG Paper on Technical Standards (WGIG,

2005e) que reconhece a importância do padrão que vai além da dimensão técnica.

Entre as vozes de suporte à manutenção do princípio fim-a-fim, está o

renomado Oxford Internet Institute (DUTTON, PELTU, 2005), que diz que a

interoperabilidade fim-a-fim implica em um design de Internet que tenha uma transferência

irrestrita de pacotes de dados de remetente a destinatário. E que seja independente de

usuário, conteúdo, aplicação ou tecnologia. Para fins de governança, isso implica na

119

proteção do princípio fim-a-fim globalmente. E evitar barreiras técnicas ou regulatórias de

interoperabilidade. Mais, o princípio fim-a-fim deve ser priorizado na governança

internacional da Internet, ao mesmo tempo em que direitos e responsabilidades nacionais

são reconhecidos.

Alguns governos, como o do Reino Unido, demonstraram preocupação com

o princípio fim-a-fim e também o relatório da União Européia (EU, 2005) reafirma seu

comprometimento com princípios de arquitetura da Internet, incluindo a

interoperabilidade, abertura e o princípio fim-a-fim.

Em resposta ao Relatório do GTGI, os representantes da sociedade civil

entendem (WSIS CIVIL SOCIETY INTERNET GOVERNANCE CAUCUS, 2005) que é

importante preservar a independência das camadas de rede, de modo que os provedores de

conectividade não determinem qual conteúdo pode ser transmitido. Os princípios fim-a-fim

devem ser preservados e reforçados contra toda tentativa de introdução de controle na

Internet.

Já a Internet Society – ISOC (INTERNET SOCIETY, 2005) acredita que o

objetivo da Governança da Internet deve ser de assegurar que a Internet continue a fornecer

aos usuários individuais o máximo possível de escolhas com a maior flexibilidade possível

enquanto se preserva a natureza fim-a-fim da rede. Para o ISOC, desde o começo da

Internet a quantidade de escolha e flexibilidade continuou a crescer.

Apesar de não ser uma resposta ao questionamento formulado pelo GTGI, a

IETF anteriormente já havia tratado do tema no RFC 3724 mencionado no Capítulo 3. O

documento reconhece que o princípio fim-a-fim continua a orientar o desenvolvimento

técnico de padrões de Internet e permanece hoje tão importante como no passado. O

princípio fim-a-fim é originado de um argumento focado em implementação de funções

nos fins de um sistema de comunicações que acabou se desdobrando em efeitos

secundários tão importantes (se não mais) do que o próprio princípio. A escolha na mão do

usuário final e seu empowerment, a integridade do serviço, o suporte à confiança e bom

comportamento na rede são alguns exemplos de conseqüências do princípio fim-a-fim.

Ainda para o RFC 3724, reconhecer tais propriedades em qualquer mudança

proposta para a Internet é mais importante do que nunca, conforme aumentam as pressões

para adicionar inteligência na rede através de novos serviços. Assim, qualquer proposta

120

para acrescentar serviços na rede deve levar em conta os princípios mencionados antes de

prosseguir (IETF, 2004, p. 10).

Por outro lado, existem stakeholders que defendem que o princípio fim-a-

fim não é essencial. Para Patrice Lyons, do Corporation for National Research Initiatives –

CNRI (LYONS, 2004), o princípio fim-a-fim tem sido entendido essencial para a

compreensão da Internet pelo ambiente de onde a Internet originalmente evoluiu, mas não

foi essencial nos últimos anos. Argumentar hoje que os únicos elementos de inteligência no

ambiente Internet devem ser localizados em suas pontas é ignorar a evolução do software e

outras tecnologias.

Para novas aplicações, manter controle de informações que trafegam dentro

da rede pode hoje ser desejável para um aumento de eficiência e aumento de performance.

Adicionalmente, esforços de pesquisa podem usar métodos inovadores para aumentar a

segurança de comunicações, desenvolver novas formas de estruturar dados, criar e

empregar repositórios metadata dinâmicos ou autenticação em tempo real nas informações.

A tecnologia para permitir o funcionamento desses serviços pode ser de uma

natureza mais dinâmica que a prática inicial de se entender os caminhos de comunicação

como meros mecanismos de transporte e distribuição.

Diante da possibilidade técnica de uma empresa responsável por um

determinado recurso dentro da rede de implementar inteligência de modo a distinguir os

pacotes e barrar a transmissão daqueles que sabidamente são relacionados a atividades

infratoras ou criminosas, sua abstenção de fazê-lo implicaria em responsabilidade civil?

Para o CNRI, ao invés de engessar a Internet em um determinado momento

histórico com uma definição que não antecipa a integração de certas tecnologias avançadas

e em rápida evolução, uma melhor abordagem seria a ampliação da definição e reconhecer

a necessidade de flexibilidade para o futuro.

Assim entende-se que a rede inteligente teria a vantagem de permitir o

Quality of Service e controle com finalidade positiva, evitando abusos. Como visto na

primeira parte, as tecnologias trazem freqüentemente aspectos positivos e negativos, sendo

necessário analisar e então verificar o que vale mais a pena. Essa decisão deve ser feita de

forma multistakeholder pois o sistema Internet é compartilhado por todos.

121

7.6. Legitimação na tomada de decisões

Como exposto, não há consenso claro entre os stakeholders acerca dos

méritos do princípio de arquitetura fim-a-fim, que pode ser preservada ou modificada. Para

as finalidades da dissertação, a decisão final não importa. Independente do que for

decidido, o que se identifica é a inexistência de um mecanismo institucionalizado para a

discussão e tomada de decisões.

Até agora, um grupo informal como a IETF, após debate, apóia ou rejeita

um determinado modelo de arquitetura, e tal decisão afeta todos os usuários das

tecnologias resultantes. Outros grupos podem igualmente se articular em outros modelos,

como, por exemplo, o recente Trusted Computing Group, buscando dominar o mercado de

tecnologia com produtos que refletem seus interesses. De acordo com informações de seu

web site (TRUSTED COMPUTING GROUP, 2006), trata-se de uma organização sem fins

lucrativos que conta com líderes globais da indústria de tecnologia e foi formada para

desenvolver, definir e promover padrões abertos para hardware que permita a trusted

computing e tecnologias seguras sem comprometer integridade funcional, privacidade ou

direitos individuais.

A padronização de arquitetura da Internet é cada vez mais uma arena de

competição80. Como bem observado no RFC 3724, tais contendas serão refletidas na

arquitetura futura da Internet. Algumas dessas competições não poderão ser resolvidas em

nível técnico, por implicar em aspectos sociais e jurídicos que a IETF não tem poderes para

tratar.

7.7. Conclusão deste capítulo

80Vide trabalho dos cientistas David Clark, Karen Sollins, John Wroclawski e Robert Braden, em Tussle in

Cyberspace: Defining Tomorrow’s Internet

122

Interesses e valores atuais são refletidos no princípio fim-a-fim que pode

implicar em maior inovação. A inserção de inteligência na rede porém pode trazer outros

benefícios. É necessário decidir como tomar essa decisão, o que deve ser feito dentro de

níveis adequados de governança.

Apesar de todos os méritos da IETF, sua forma de deliberação ainda está

atrelada a uma fase anterior da Internet em que a comunidade científica decidia sozinha o

que seria mais adequado para o futuro da rede dentro de seu sistema de meritocracia. Para

que hoje esse processo seja harmônico com os interesses comerciais e preocupações de

segurança da rede, é necessária sua institucionalização dentro da moldura do IGF.

Decisões somente podem ser livremente tomadas quando existe

transparência na divulgação de informações a respeito das potenciais conseqüências que

elas podem trazer. Conforme o mandato do IGF, os debates podem aproveitar a expertise

das comunidades acadêmica, científica e técnica. A partir dos levantamentos, o IGF poderá

elaborar suas Recomendações não vinculantes dando preferência a determinados padrões

que entende mais adequados aos princípios levantados pelo processo da CMSI.

123

8. CONCLUSÕES FINAIS

O crescimento da Internet despertou uma discussão acerca de sua

governança. As primeiras Partes da dissertação foram dedicadas a relatar como a Internet

foi inicialmente palco de relações que, apesar de sua riqueza social, não produziram

demanda significativa por uma manifestação jurídica intensa. Em seus primórdios, a

Internet pulsava valores de auto-regulação, a qual, combinada com um sentimento de

ausência de poder coercitivo e à anonímia proporcionada pela tecnologia, contribuiu para a

difusão da crença de que seria impossível o controle dos governos tradicionais.

O amadurecimento dessa visão revelou que, ao contrário, adicionalmente à

regulação diretamente imposta pela norma jurídica, uma técnica de controle prévio poderia

ser usada com efeitos normativos: a regulação pela arquitetura.

Historicamente, no desenvolvimento da Internet, diversas partes disputaram

poder buscando impor padrões tecnológicos que produzissem efeitos favoráveis aos seus

interesses particulares. Conforme a Internet se expandia, aumentava o potencial de

benefícios a serem obtidos com esse controle. Essa competição ficou cada vez mais intensa

e, durante o processo da Cúpula Mundial sobre a Sociedade da Informação, foi

reconhecido que as decisões relacionadas ao futuro da Internet devem ser tomadas de

forma que envolva todas as partes interessadas (multistakeholder), com transparência,

democracia, responsabilidade, igualdade e legitimidade, caracterizando um alto nível de

governança. A competição deveria dar lugar a uma colaboração, para o benefício comum.

Ao examinar a Internet, foi reconhecido que ela é dinâmica e permanece em

evolução. Seu futuro pode ser modificado através da regulação pela arquitetura. Assim, a

Internet pode ter um futuro positivo aos valores de abertura, liberdade, estímulo à

criatividade e liberdade de expressão ou então se transformar em uma mídia menos

interativa, impondo um modelo de segurança, divisão geográfica ou uma comunicação

mais unilateral e com maior controle à liberdade de expressão e menos privacidade.

O histórico da Internet foi relatado para demonstrar o aspecto dinâmico,

contrastando-se seu cenário original com as tendências de transformação que impulsionam

a Internet atualmente. A Internet começou com um estilo militar que garantia robustez e

flexibilidade. Os grupos acadêmicos também colocaram seus valores, como a abertura

124

permitindo que qualquer um fosse um produtor, o que fez surgir o e-mail e diversas outras

inovadoras aplicações. Os cientistas decidiam por meritocracia, sem organização jurídica.

Atualmente, as tendências são de cada vez mais uma dominação de

interesses comerciais e de segurança. O potencial de liberdade dos usuários diminui

conforme mais inteligência é adicionada na rede, removendo a neutralidade em

contrapartida de um benefício na qualidade do serviço.

Essa mudança tem também a ver com a mudança cultural na história da

Internet, originalmente era uma pequena comunidade de cientistas com grande afinidade e

confiança mútua, e na qual o uso comercial era proibido. Com a entrada de novas partes

interessadas surgem novas expectativas e interesses.

A característica fim-a-fim estimulou muita inovação e colocou poder na

mão dos usuários. Em muitos casos, novas aplicações foram desenvolvidas permitindo

abusos por parte de alguns usuários, como no caso de redes peer-to-peer que podem ser

usadas para compartilhar dados em violação a direitos de propriedade intelectual, como

músicas em formato .MP3. Assim, a característica fim-a-fim não é necessariamente a mais

interessante para a indústria que deseja retomar controle. Entretanto, a rede inteligente

pode apresentar benefícios de segurança e estabilidade, conforme seus defensores.

O contexto que deu origem ao princípio fim-a-fim na fase inicial da Internet

hoje é diferente, e não há uma concreta garantia a respeito de sua manutenção, ou mesmo

uma clareza quando às vantagens e desvantagens em sua manutenção. A única certeza é

que a mudança do princípio do fim-a-fim para uma rede com inteligência interna traz

grandes efeitos regulatórios. Considerando que a dinâmica da Internet dá-se por meio das

mudanças de arquitetura, é necessário decidir como decisões de mudança de tecnologia

gerando regulação pela arquitetura serão tomadas dentro de níveis adequados de

governança.

É necessário investigar com maior profundidade o futuro do princípio da

neutralidade. Todo o debate sobre os protocolos de rede abertos, proprietários e formais

ilustra como os padrões técnicos podem ser políticos. As decisões técnicas podem ter fortes

conseqüências econômicas e sociais, alterando o equilíbrio de poder entre empresas

concorrentes ou nações diferentes, mesmo limitando a liberdade de usuários. Esforços para

criar padrões formais trazem os criadores de sistemas e suas decisões técnicas e privadas

ao campo público; dessa forma, batalhas de padrões podem trazer implícitos diversos

125

conflitos de interesse. Por isso, a definição legítima de padrões internacionais (tanto

formais e públicos como “de facto”) não pode ser deixada somente na mão do mercado ou

mesmo de organizações de tecnólogos. Por outro lado, uma intervenção inadequada pode

ser ainda mais prejudicial.

Uma história repleta por lutas de poder é o que marcou a primeira noção de

governança da Internet. Com a invenção do Domain Name System – DNS para facilitar a

localização de dados na Internet, a responsabilidade no controle do sistema passou de um

único indivíduo, Jon Postel, para a ICANN. Esse processo contou com controversos

episódios, como a criação do Internet ad hoc Committee – IAHC, o International Forum

on the White Paper, a oposição de interesses da Network Solutions, Inc., e mesmo de

confrontos internacionais envolvendo Estados Unidos da América, Europa, UIT e também

interesses de detentores de marcas, representados pela OMPI e pela International

Trademark Association. Em contrapartida à criação da ICANN, a UIT realizaria uma

conferência mundial, a Cúpula Mundial sobre a Sociedade da Informação – CMSI, que

resultou em uma inesperada manifestação global sobre a importância da governança da

Internet, resultando na criação do Grupo de Trabalho sobre a Governança da Internet –

GTGI.

O GTGI recebeu o mandato de apresentar uma definição de trabalho sobre o

controverso tema da “governança da Internet”, de modo a resolver as discussões entre as

diferentes visões que entendiam que a governança seria ou um tema estreito relacionado

aos nomes e números do DNS ou um tema amplo que compreenderia o futuro da Internet e

os diversos efeitos políticos, sociais e econômicos.

Como exposto na parte introdutória, as discussões ligadas à ICANN e sua

supervisão política e mesmo as propostas de criação de uma organização internacional ou

tratado que pudesse legitimar o controle do sistema de nomes e números compõem

importante parte do tema da governança da Internet. Porém, não foram enfrentadas na

dissertação, por ultrapassar os objetivos pretendidos, conforme motivos já expostos. A

controvérsia da ICANN foi apresentada sucintamente para aproveitar o exemplo de uma

situação em que os atores mais articulados ou que tinham maior poder tomaram as

principais decisões, o que gerou grande descontentamento de diversos stakeholders.

Na Segunda Fase da CMSI a governança da Internet foi entendida não

apenas como o conjunto de ações relacionadas ao gerenciamento de nomes e números, mas

compreendendo também o estabelecimento de padrões tecnológicos e definição de

126

políticas públicas. É muito importante a devida representação dos interesses globais no

estabelecimento dos padrões técnicos que como analisado possuem impactos sociais,

culturais, políticos e econômicos. O relatório do GTGI mostra que a Internet atraiu atenção

internacional e indica papéis dos stakeholders e propôs a criação de um fórum.

Semelhantemente à questão de nomes e números, decisões a respeito da

determinação de padrões tecnológicos (tanto “de facto” como formais) estão sendo

realizadas pelos atores mais articulados, sem uma suficiente governança. A governança é o

melhor meio para legitimar o poder ao promover colaboração. A interação entre diversos

stakeholders e a subscrição de atores internacionais mais tradicionais como governos em

agendas altamente complexas e com detalhes tecnológicos pode ser facilitada com o uso de

mecanismos suaves (soft), de melhor aceitação, como recomendações não vinculantes.

A respeito da importância dos mecanismos soft, é destacada a possibilidade

de participação de entidades da sociedade civil e do setor privado, essencial para despertar

a consciência da importância da governança da Internet, apresentando suas opiniões que

influenciaram a tomada de decisões, mesmo sem o status de sujeitos de direito

internacional. Semelhantemente ao papel das organizações não governamentais no que diz

respeito à proteção do meio ambiente, os representantes da sociedade civil, do setor

privado e mesmo aqueles que se manifestaram em sua capacidade pessoal, enquanto

usuários da Internet, contribuíram para a conscientização da opinião pública e para o

debate na formação do conceito de governança da Internet.

A soft law apresenta elementos positivos para tratar da governança da

Internet. Em primeiro lugar, é uma abordagem menos formal e assim não exige o

comprometimento oficial dos Estados e, portanto, reduz riscos políticos potenciais. Em

segundo lugar, é flexível o suficiente para facilitar o teste de novas abordagens e ajuste a

rápidos desenvolvimentos no campo de governança da Internet, que é caracterizado por

muitas incertezas. Em terceiro lugar, a soft law fornece uma maior oportunidade para uma

abordagem multistakeholder do que a abordagem internacional restrita a Estados e

organizações internacionais.

A soft law ainda possibilita um dos mais importantes elementos da segunda

fase da CMSI: o comprometimento de criação do Internet Governance Forum – IGF, que

pode contribuir para a colaboração. A criação do IGF tem muito em comum com a CMSI,

sendo multistakeholder, não vinculante, criada pela ONU, e capaz de lidar com um amplo

escopo de temas de Internet e política de tecnologia. No mínimo o IGF parece um método

127

adequado de continuar o trabalho iniciado pela CMSI, por exemplo no caso dos debates

sobre o princípio fim-a-fim.

Não se pode aceitar que a evolução da Internet se dê à margem do Direito,

pelas teorias apresentadas e pela aceitação da regulação pela arquitetura. Entretanto, o

direito internacional tradicional, com sua estreita definição de sujeitos de direito

internacional e com mecanismos de hard law poderia se revelar demasiadamente

hermético para que as relações dinâmicas da Internet fossem por ele contempladas.

A moderna visão do Direito Internacional, contudo, mostra o contrário.

Outros atores como organizações não governamentais que representam interesses da

sociedade civil e do setor privado, bem como aqueles atores que representam outras

categorias que não necessariamente se enquadram na classificação tripartite entre

“governos, sociedade civil e setor privado”, conforme a classificação da CMSI, como por

exemplo os representantes do setor acadêmico, das mulheres, dos jovens, dos tecnólogos,

ou mesmo usuários individuais da Internet, tiveram a oportunidade de apresentar seus

pontos de vista em uma conferência das Nações Unidas que deu continuidade à evolução

do conceito de diplomacia multistakeholder.

Tal conceito somente foi possível na medida em que a soft law permite

alcançar acordos não vinculantes, envolvendo atores sem personalidade de direito

internacional, sem necessidade de ratificação. A própria CMSI não seria possível sem a

participação desses importantes atores, pois foram eles os que conduziram a evolução da

sociedade da informação.

Especificamente no que diz respeito à definição de padrões tecnológicos, a

Internet Engineering Task Force – IETF tem métodos abertos de deliberação, apesar de na

essência ter falhas assim como a Internet Corporation for Assigned Names and Numbers –

ICANN, derivadas de um sistema de governança carente de uma institucionalização

internacional legítima.

No que diz respeito à governança da Internet no processo de definição de

padrões tecnológicos, a IETF deve se adequar à estrutura a ser criada pelo Internet

Governance Forum. Nesse sentido, o IGF pode ser usado como uma plataforma adicional a

ser usada pela IETF para legitimação das decisões por ela tomadas.

O IGF, assim, é mais um exemplo concreto de fenômeno identificado por

Nasser (2005, p.16):

128

Com a crescente emergência das organizações intergovernamentais, a partir do final do século XIX, com sua extraordinária proliferação durante todo o século XX, e ao que tudo indica, ainda a emergência, no século XXI, de novas formas da diplomacia multilateral, que institui formas decisórias e de gestão internacionais, as quais se encontram numa fase embrionária, a caminho de uma possível institucionalização, as maneiras tradicionais que existiam, pelas quais se revelavam as normas jurídicas internacionais, ou seja, as fontes do Direito Internacional, deveriam sofrer radicais transformações. Referimo-nos, em particular, à constituição de foros internacionais, através de tratados multilaterais, que acabam por instituir secretariados com extensos poderes, e que ainda prevêem reuniões intermitentes dos Estados Partes, na forma de Conferências das partes, como se os tratados ainda não estivessem prontos e acabados, sem, no entanto, estarmos frente a organizações intergovernamentais. (grifos nossos).

Decisões somente podem ser livremente tomadas quando existe

transparência na divulgação de informações a respeito das potenciais conseqüências que

elas podem trazer. Para isso é fundamental a capacitação de modo que as partes

interessadas possam atuar significantemente. Conforme o mandato do IGF, os debates

podem aproveitar a expertise das comunidades acadêmica, científica e técnica. A partir dos

levantamentos, o IGF poderá elaborar suas Recomendações não vinculantes dando

preferência a determinados padrões que entende mais adequados aos princípios levantados

pelo processo da CMSI.

A importância do Direito nos processos decisórios é observada.

Considerados os vários efeitos regulatórios que são derivados da manutenção ou supressão

do princípio fim-a-fim, o IGF deve estruturar grupos de trabalho que envolvam todas as

partes interessadas a debater e ao final preparar recomendações que iluminem a futura

tomada de decisão. Desse modo, são reduzidas as oportunidades de influência dos agentes

mais articulados na configuração do futuro da Internet.

Entre vários assuntos que devem ser enfrentados pelo IGF, é importante sua

atuação como uma plataforma de discussão a respeito da arquitetura da Internet, dada sua

importância no futuro da rede. Assim, a deliberação a respeito de definição de padrões

tecnológicos não pode ser feita com legitimidade isoladamente por grupos de tecnólogos

como a IETF ou por coalizões empresariais como o Trusted Computing Group. O IGF, que

ainda não está formado, terá papel fundamental na colaboração e legitimação na discussão

de governança da Internet em sentido amplo.

REFERÊNCIAS BIBLIOGRAFICAS

ABBATE, J. Inventing the Internet. London: The MIT Press,1999.

ABBOT, K.W.; SNIDAL, D. Hard and Soft Law in International Governance. International Organization, v. 54 i3, Summer 2000.

AFONSO, C. A Scenario for a New Internet Governance. Disponível em: <http://www.wgig.org/docs/book/Carlos_Afonso%20.pdf>. Acesso em 16.01.2006.

AFONSO, C. Quem ganhou? De certo modo, o mundo ganhou. Observatório de Políticas Públicas de Infoinclusão. Disponível em: <http://observatorio.ultimosegundo.ig.com.br/artigos.asp?cod=356ENO003>. Acesso em 16.01.2006.

AL-DARRAB, A. The need for international Internet governance oversight. in Reforming Internet Governance: Perspectives from the Working Group on Internet Governance (WGIG). New York: United Nations ICT Task Force, 2005.

ANNAN, K. The U.N. Isn't a Threat to the Net. Washington Post, Washington, 5 nov. 2005, Columns, p.A9. Disponível em: <http://www.washingtonpost.com/wp-dyn/content/article/2005/11/04/AR2005110401431.html>. Acesso em 16.01.2006.

BAPTISTA, L.O. Aspectos Jurídicos das Transferências Internacionais de Fundos. 1986. Tese (Livre Docência em Direito Internacional Privado) – Faculdade de Direito, Universidade de São Paulo, São Paulo.

BARLOW, John Perry. Declaration of Independence of Cyberspace. .in: ELETRONIC FRONTIER FOUNDATION. Disponível em: <http://www.eff.org/~barlow/barlow.html>. Acesso em 16.01.2006.

BENKLER, Y. From Consumers to Users: Shifting the Deeper Structures of Regulation Towards Sustainable Commons and User Access. [S.l.]: Federal Communications Law Journal, 2000. Disponível em: <http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf>. Acesso em 16.01.2006.

_______________. Coase's Penguin, or, Linux and the Nature of the Firm. New Haven: Yale Law Journal, 2002. Disponível em: <http://www.benkler.org/CoasesPenguin.html>. Acesso em 16.01.2006.

BERNERS-LEE, T.. Weaving the Web – The Past, Present and Future of the World Wide Web by Its Inventor. London: Texere Publishing Limited, 2000.

BOBBIO, N. Teoria da Norma Jurídica. São Paulo: Edipro, 2001.

_______________. Teoria do Ordenamento Jurídico. 10ª ed., Brasília: Editora Universidade de Brasília, 1999.

BOLLIER, D. Silent Theft: the Private Plunder of Our Common Wealth, Routledge, London, 2003,

BOYLE, J. Foucault in Cyberspace: Surveillance, Sovereignty, and Hard-Wired Censors. Disponível em <http://www.law.duke.edu/boylesite/foucault.htm> Acesso em 15.09.2004.

CASTELLS, M. A Sociedade em Rede. 3ª ed., São Paulo, Paz e Terra, 1999.

CERF, V. IETF and ISOC. Disponível em: <http://www.isoc.org/isoc/related/ietf/>. Acesso em 16.01.2006.

CLARK, D.D.; BLUMENTHAL, M. Rethinking the design of the Internet: The end to end arguments vs. the brave new world. Disponível em:

<http://www.ana.lcs.mit.edu/papers/PDF/Rethinking_2001.pdf>. Acesso em 16.01.2006.

CLARK, D., SOLLINS, K., WROCLAWSKI, J. e BRADEN, R. Tussle in Cyberspace: Defining Tomorrow`s Internet. Disponível em: <http://mia.ece.uic.edu/~papers/Networking/pdf00003.pdf>. Acesso em 16.01.2006.

COMISSÃO SOBRE GOVERNANÇA GLOBAL. Nossa Comunidade Global. O Relatório da Comissão sobre Governança Global. Tradução: Luiz Alberto Monjardim e Maria Lucia Leão Velloso de Magalhães. Rio de Janeiro, Editora da Fundação Getúlio Vargas, 1996.

COMPARATO, F. K. O Poder de Controle na Sociedade Anônima. 3. ed. Rio de Janeiro: Forense, 1983.

COUNCIL OF THE EUROPEAN UNION. Internet Governance: Reply of the European Community and Its Member States to the US Green Paper. Brussels: Information Society Policies, 1998. Disponível em: <http://europa.eu.int/ISPO/eif/InternetPoliciesSite/InternetGovernance/MainDocuments/ReplytoUSGreenPaper.html>. Acesso em 16.01.2006.

ELKIN-KOREN, N.; SALZBERGER, E. Law and Economics in Cyberspace. Disponível em: <http://www.brousseau.info/semnum/pdf/2002-11-18_Elkin.pdf>. Acesso em 11.12.04

FALCÃO, J. Internet estável e segura, Folha de São Paulo, 31.07.2005. Disponível em <http://www1.folha.uol.com.br/fsp/opiniao/fz3107200509.htm>. Acesso em 16.01.2006.

FERRAZ JR., T. S. Introdução ao Estudo do Direito. Técnica, Decisão, Dominação .2ª ed. São Paulo: Atlas, 1994.

FOUCAULT, M. Microfísica do Poder. 14ª ed. Rio de Janeiro, Graal, 1999.

___________ Vigiar e Punir. 27ª ed. Petrópolis: Editora Vozes, 2003, p.163.

GEIST, M. Towards a two-tier Internet. BBC News. London, 22 dez. 2005, Technology. Disponível em: <http://news.bbc.co.uk/1/hi/technology/4552138.stm>. Acesso em 16.01.2006.

GELBSTEIN, E.; KURBALIJA, J.. Internet Governance – Issues, Actors and Divides. Disponível em: <http://textus.diplomacy.edu/textusbin/env/scripts/Pool/GetBin.asp?IDPool=641>. Acesso em 16.01.2006.

GUSMÃO, P. D. Introdução à Ciência do Direito. 33a ed. Rio de Janeiro:Editora Forense, 2003.

HAFNER, K., LYON, M. When Wizards Stay Up Late (The Origins of the Internet), Touchstone, 1998.

HILLGENBERG, H. A Fresh Look at Soft Law. Disponível em: <http://www.ejil.org/journal/Vol10/No3/100499.pdf>. Acesso em 16.01.2006.

INTERNATIONAL TELECOMMUNICATIONS UNION. Resolution 102. Marrakesh: 2002. Disponível em: <http://www.itu.int/osg/spu/resolutions/2002/res102.html>. Acesso em 16.01.2006.

INTERNET ENGINEERING TASK FORCE -IETF. Internet Protocol. Request of Comments 791 (RFC 791) Disponível em: <http://www.ietf.org/rfc/rfc0791.txt.> Acesso em 16.01.2006.

____________ The Tao of IETF: A Novice's Guide to the Internet Engineering Task Force (RFC 3160) .Disponível em: <http://www.ietf.org/rfc/rfc3160.txt>. Acesso em 16.01.2006.

____________ Architectural Principles of the Internet (RCF 1958) Disponível em: <http://www.ietf.org/rfc/rfc1958.txt>. Acesso em 16.01.2006.

____________.Deflate Compressed Data Format Specification. Request for Comments 1951 (RFC 1951). Disponível em:<http://www.ietf.org/rfc/rfc1951.txt>. Acessado em:

____________.The Internet Standards Process. Request of Comment 2026 (RFC 2026). Disponível em: <http://www.ietf.org/rfc/rfc2026.txt>. Acesso em 16.01.2006.

_____________ The Rise of the Middle and the Future of End-to-End: Reflections on the Evolution of the Internet Architecture. Request for Comments 3724. (RFC 3724). Disponível em:<http://www.ietf.org/rfc/rfc3724.txt>. Acesso em 16.01.2006. .

INTERNET GOVERNANCE PROJECT. Internet Governance: The State of Play. [S.l.]: 2004. Disponível em: <http://dcc.syr.edu/miscarticles/MainReport-final.pdf>. Acesso em 16.01.2006.

INTERNET SOCIETY. All About the Internet: History of the Internet. Disponível em: <http://www.isoc.org/Internet/history/>. Acesso em 16.01.2006.

_______________. Internet Society's Participation in: World Summit on the Information Society (WSIS). Reston: 15 ago. 2005. Disponível em:

<http://www.isoc.org/isoc/conferences/wsis/wgigcomments.shtml>. Acesso em 16.01.2006.

INTERVOZES - COLETIVO BRASIL DE COMUNICAÇÃO SOCIAL. Informativo Intervozes - TV Digital. Saiba por que você precisa participar desse debate. Disponível em: <http://www.intervozes.org.br/arquivos/TVDigital.pdf>. Acesso em 16.01.2006.

JOHNSON, D; POST, D. The Rise of Law on the Global Network, in: Borders in Cyberspace, Cambridge, The MIT Press,1997.

JORDAN, T. Cyberpower: The Culture and Politics of Cyberspace and the Internet. London, Routledge, 1999.

KLEINWÄCHTER, W. Beyond ICANN Vs ITU? How WSIS Tries to Enter the New Territory of Internet Governance. Disponível em: <http://gaz.sagepub.com/cgi/content/abstract/66/3-4/233>. Acesso em 16.01.2006.

KRIM, J. Executive Wants to Charge for Web Speed. Some Say Small Firms Could Be Shut Out of Market Championed by BellSouth Officer. Washington Post, Washington, 1 dez. 2005, Technology, p. D05. Disponível em <http://www.washingtonpost.com/wp-dyn/content/article/2005/11/30/AR2005113002109.html>. Acesso em 15.01.2006.

KRUSE, H, YURCIK, W e LESSIG, L. The InterNAT: Policy Implications of the Internet Architecture Debate. Disponível em <http://www.tprc.org/abstracts00/internatpap.pdf>. Acesso em 16.01.2006.

KURBALIJA, J. Internet Governance and International Law. Disponível em: <http://www.wgig.org/docs/book/Jovan_Kurbalija%20.pdf>. Acesso em 16.01.2006.

LEMKE, T. Foucault, Governmentality, and Critique. Disponível em < http://www.thomaslemkeweb.de/engl.%20texte/Foucault,%20Governmentality,%20and%20Critique%20IV.pdf> Acesso em 02.02.2005

LEMLEY, M.; LESSIG, L. The End of End-to-End: Preserving the Architecture of the Internet in the Broadband Era. Berkeley: The Berkeley Law and Economics Working Papers, V.2000, nº2, Article 8, 2001. Disponível em: <http://www.bepress.com/cgi/viewpdf.cgi?article=1029&context=blewp&preview_mode=>. Acesso em 16.01.2006.

LESSIG, L. Code and Other Laws of Cyberspace. New York, Basic Books, 1999.

_______________. The future of ideas. New York, Vintage Books, 2002.

_______________. Governance. Disponível em <http://cyber.law.harvard.Edu/works/lessig/final.pdf> Acesso em 21.01.2000

_______________. Cyberspace’s Constitution. Disponível em <http://cyber.law.harvard.edu/works/lessig/AmAcd1.pdf> Acesso em 15.02.2000

_______________. The Law of the Horse: What Cyberlaw Might Teach. Disponível em <http://cyber.law.harvard.edu/works/lessig/finalhls.pdf> Acesso em 21.01.2000

_______________. Reading the Constitution in Cyberspace. Disponível em <http://papers.ssrn.com/paper.taf?ABSTRACT_ID=41681#Paper%20Download> Acesso em 02.02.2000

_______________. “The Place of Cyberlaw.” in The Place of Law. Austin Sarat, Lawrence Douglas, Martha Merrill Umphrey. University of Michigan Press, 2003. 192 pg.

_______________. Voice-Over-IP’s Unlikely Hero.Wired Magazine, [S.l.], mai. 2005. Disponível em: <http://www.wired.com/wired/archive/13.05/view.html?pg=4>. Acesso em 15.01.2006.

LÉVY, Pierre. O que é o Virtual? São Paulo, Ed. 34, 1996.

LIECHTENSTEIN, C.C. Hard Law v. Soft Law: Unnecessary Dichotomy? The International Lawyer, Winter 2002, Volume 5, Number 4.

LYONS, P. “The End-End Principle and the Definition of Internet” Preparatory Process: Working Group on Internet Governance (WGIG). Disponível em: <http://www.wgig.org/docs/CNRI-November.doc>. Acesso em 16.01.2006.

MARTINS, A.L.; BARBUY, H. Arcadas. História da Faculdade de Direito do Largo de São Francisco – 1827-1997. São Paulo, Alternativa. 1998.

MATHIASON, J, et al. Internet Governance: The State of Play. Disponível em: <http://dcc.syr.edu/miscarticles/MainReport-final.pdf>. Acesso em 16.01.2006.

MCTAGGART, C. Governance of the Internet's Infrastructure: Network Policy for the Global Public Network. 1999. Tese (Master of Laws) - Faculdade de Direito, University of Toronto, Toronto, 1999. Disponível em: <http://www.internetstudies.org/networks/members/craimct/thesis/section0.htm>. Acesso em 16.01.2006.

MELLO, C. D. de A. Curso de Direito Internacional Público. 9ª ed., Rio de Janeiro, Renovar, 1992.

MUELLER, M. Ruling the Root. Internet Governance and the Taming of Cyberspace. Cambrigde. The MIT Press, 2004.

_______________. Lista de discussão mantida pela Internet Governance Caucus. Disponível em: <[email protected]>. Acesso em 16.01.2006. Mensagem recebida de <[email protected]> em: 27 ja. 2005.

NADER, P. Introdução ao Estudo do Direito. 23a ed. Rio de Janeiro: Editora Forense. 2003.

NYE, J. S. Jr.; DONAHUE, J D. Governance in a Globalizing World. Washington, Brookings Pressings, 2000.

PLATÃO. Fedro. Tradução de Alex Marins. 1ª ed., São Paulo, Editora Martin Claret, 2003.

POSTEL, Jon. Testimony before the Sub Committee on Basic Research of the Committee on Science of the House of Representatives, Washington, October 7, 1998.

POSTMAN, N. Technopoly – The Surrender of Culture to Technology. 1ª ed., New York, Vintage, 2000.

REALE, M. Fundamentos do Direito. 3ª ed., São Paulo, RT, 1998.

_______________. Lições Preliminares de Direito. 24ª ed., São Paulo, Saraiva, 1999.

_______________. Teoria Tridimensional do Direito. 1ª ed., São Paulo, Saraiva, 1968.

RHEINGOLD, H. A Comunidade Virtual. Lisboa, Gradiva, 1996.

SALOMÃO FILHO, C. Regulação da atividade econômica (princípios e fundamentos jurídicos). São Paulo, Malheiros, 2001.

SALTZER, Jerome, REED, David CLARK, David , End to End Arguments in System Design .Disponível em:<http://web.mit.edu/Saltzer/www/publications. Acesso em:

SANTOS. C. Telemar proíbe uso de VoIP no Velox. COMPUTERWORLD.São Paulo, 7 nov. 2005. Disponível em: <http://computerworld.com.br/AdPortalv5/adCmsDocumentShow.aspx?GUID=D0349C8A-146C-48D8-9591-AD1291C4529A&ChannelID=20>. Acesso em 16.01.2006.

SARAT, A, DOUGLAS, L; UMPHREY, M. The Place of Law. University of Michigan Press, 2003.

SHAPIRO, A. The Control Revolution: How the Internet is Putting Individuals in Charge and Changing the World We Know. 1ª ed., New York, Public Affairs, 1999.

SCHWARTSMAN, H. São Paulo, o rio e Heráclito. Folha de São Paulo. Disponível em: <http://www1.folha.uol.com.br/folha/pensata/ult510u130.shtml>. Acesso em 16.01.2006.

SOARES, G.F.S.. Curso de Direito Internacional Público. São Paulo, Atlas, 2002.

_______________. Direito Internacional do Meio Ambiente. Emergência, Obrigações e Responsabilidades. 2ª. Ed., São Paulo, Atlas, 2003.

SOLUM, L. B. CHUNG, M. The Layers Principle: Internet Architecture and the Law. Disponível em: < http://ssrn.com/abstract=416263 >. Acesso em 02.09.2005.

THE INSIDER.ORG. U.N. Commission on Global Governance. Disponível em < http://www.theinsider.org/mailing/article.asp?id=00092> Acesso em 10.02.2005

THIERER, A. CREWS JR., CLYDE W. (orgs.) Who Rules the Net? Internet Governance and Jurisdiction. Washington. 2003. Cato Institute.2003.

TRUSTED COMPUTING GROUP. Web site do Trusted Computing Group. Disponível em: < https://www.trustedcomputinggroup.org/about/>. Acesso em 16.01.2006.

UNITED STATES OF AMERICA. US Principles on the Internet`s Domain Name and Addressing System. Washington: US Department of Commerce, 2005. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/USDNSprinciples_06302005.htm>

UNITED STATES OF AMERICA. Federal Communications Commission, FCC Chairman Michael K. Powell Commends Swift Action to Protect Internet Voice Access. Disponível em: <http://hraunfoss.fcc.gov/edocs_public/attachmatch/DOC-257175A1.doc>. Acesso em 16.01.2006.

_______________. The White House. A Framework for Global Electronic Commerce. Washington, DC: 1997. Disponível em: <http://www.technology.gov/digeconomy/framewrk.htm>. Acesso em 16.01.2006.

_______________. DEPARTMENT OF COMMERCE.A Proposal to Improve the Technical Management of Internet Names and Addresses. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/domainname130.htm> Acesso em 16.01.2006

_______________. DEPARTMENT OF COMMERCE. Statement of Policy on the Management of Internet Names and Addresses. 5 jun.1998. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/6_5_98dns.htm. Acesso em:16.01.2006.

WHITT, R S. A Horizontal Leap Forward: Formulating a New Communications Public Policy Framework Based on the Network Layers Model. Disponível em: <http://global.mci.com/about/publicpolicy/presentations/newamericalayerspresentation.pdf>. Acesso em 16.01.2006.

WORKING GROUP ON INTERNET GOVERNANCE. Report of the Working Group

on Internet Governance. Geneva, Chatêau de Bossey: 2005a. Disponível em: <http://www.wgig.org/docs/WGIGREPORT.pdf>. Acesso em 16.01.2006.

_______________. Background Report - The Working Group on Internet Governance. [S.l.]: 2005b. Disponível em: <http://www.wgig.org/docs/BackgroundReport.pdf>. Acesso em 16.01.2006.

_______________. [S.l.]: 2005c. Draft WGIG issue paper on Network and Information Security. Disponível em: <www.wgig.org/docs/WP-NetworkSecurity.pdf >. Acesso em 16.01.2006.

_______________. [S.l.]: 2005d. Internet Governance Arrangements: Questionnaire. Disponível em: <http://www.wgig.org/docs/Questionnaire.09.05.05.pdf >. Acesso em 16.01.2006

_______________. [S.l.]: 2005e. Draft WGIG Issue Paper on Technical Standards. Disponível em: <http://www.wgig.org/docs/WP-techstand.pdf >. Acesso em 16.01.2006

WSIS CIVIL SOCIETY INTERNET GOVERNANCE CAUCUS. Response to the WGIG Report. Disponível em: <http://wsispapers.choike.org/wsis_igcaucus_wgig_final.pdf>. Acesso em 16.01.2006.

ZITTRAIN, J. Testimony of Jonathan Zittrain, Executive Director, Berkman Center for Internet and Society at Harvard Law School before the Subcommittee on Investigations and Oversight Committee on Commerce, U.S. House of Representatives. Washington, DC: US House of Representatives, 1999. Disponível em: <http://cyber.law.harvard.edu/zittraintestimony.pdf>. Acesso em 16.01.2006.

_______________. Internet Points of Control. Disponível em: <http://cyber.law.harvard.edu/home/uploads/202/2003-01.pdf>. Acesso em 16.01.2006.

_______________. Be Careful What You Ask For: Reconciling a Global Internet and Local Law. Cambridge: The Berkman Center for Internet and Society, Research Publication No. 2003-03. 2003. Disponível em: <http://cyber.law.harvard.edu/home/uploads/204/2003-03.pdf>.

____________The Generative Internet. Cambridge: Harvard Law School, Harvard law Review 2006. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=847124>. Acesso em 16.01.2006.

BIBLIOGRAFIA

BERLEUR, J.; DUQUENOY, P.; WHITEHOUSE, D. Ethics and the Governance of the Internet. Disponível em: <http://www.info.fundp.ac.be/~jbl/IFIP/Ethics_and_Internet_Governance.pdf>. Acesso em 16.01.2006.

BERKMAN CENTER FOR INTERNET AND SOCIETY. Disponível em: http://cyber.law.harvard.edu/home/. Acesso em: 16.01.2006.

____________. The Debate Over Internet Governance: A Snapshot in the Year 2000. Disponível em: <http://cyber.law.harvard.edu/is99/governance/introduction.html> Acesso em: 16.01.2006.

CERQUEIRA, T. Q. O Direito do ciberespaço.Jus Navegandi. Teresina, a.4, n.36, nov. 1999. Disponível em: <http://jus2.uol.com.br/doutrina/texto.asp?id=1774>. Acesso em 16.01.2006.

CHRISTENSEN, C. The Innovator`s Dilemma: When New Technologies Cause Great Firms to Fail, Cambridge, Harvard Business School Press, 1995.

DAVID, P. A. The Beginnings and Prospective Ending of ‘End-to-End’. An Evolutionary Perspective on the Internet's Architecture. Oxford: All Souls College, 2001. Disponível em: <http://www-econ.stanford.edu/faculty/workp/swp01012.pdf>. Acesso em 16.01.2006.

DEDEURWAERDERE, T. Ethics, Social Reflexivity and Governance of the Information Society, A Reflexive criticism of the institutional framing of the Internet. Louvain-la-Neuve: Centre de Philosophie du Droit, 2002. Disponível em: <http://www.cpdr.ucl.ac.be/docTravail/dedeurwaerdere94.pdf>. Acesso em 16.01.2006.

ESBIN, B. Internet Over Cable: Defining the Future in Terms of the Past.Washington, DC: Federal Communications Commission, 1998. Disponível em: <http://www.fcc.gov/Bureaus/OPP/working_papers/oppwp30.pdf>. Acesso em 16.01.2006.

EUROPEAN DIGITAL RIGHTS, ISP Self-Regulation Proposal Entertainment Industry Disponível em: <http://www.edri.org/edrigram/number3.7/takedown>. Acesso em 15.01.2006

FRANKEL, T. The Common Law and Cyberspace. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=292614>. Acesso em 16.01.2006.

GIBBONS, L.J. No Regulation, Government Regulation, or Self-Regulation: Social Enforcement or Social Contracting for Governance in Cyberspace. New York: Cornell Journal of Law and Public Policy, 1997. Disponível em: <http://law.utoledo.edu/publications/Gibbons-Cornell.htm>. Acesso em 16.01.2006

HUNTER, D.. Cyberspace as a Place, and the Tragedy of the Digital Anticommons. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=306662>, Acesso em 16.01.2006.

INTERNET CORPORATION FOR ASSIGNED NAMES AND NUMBERS. Top Level Domains. Disponível em:<http://www.icann.org/tlds> .Acesso em 16.01.2006.

INTERNET GOVERNANCE FORUM - IGF. Repositório oficial de informações referentes ao Internet Governance Forum. Disponível em: <http://www.intgovforum.org>. Acesso em 16.01.2006.

INTERNET SOCIETY. Web site da Internet Society. Disponível em:<http://www.isoc.org/>. Acesso em 16.01.2006.

KESAN, J.P.; SHAH, R.C. Fool Us Once Shame on You - Fool Us Twice Shame on Us: What We Can Learn from the Privatizations of the Internet Backbone Network and the Domain Name System. Washington, DC: Washington University Law Quarterly, 2001. Disponível em: <http://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID260834_code010221520.pdf?abstractid=260834&mirid=2>. Acesso em 16.01.2006

LEMLEY M. A., LESSIG L., In re Application for Consent to the Transfer of Control of Licenses MediaOne Group, Inc. to AT&T Corp., (F.C.C. 1999), Disponível em <http://cyber.law.harvard.edu/works/lessig/cable/fcc/fcc.html>. Acesso em 16.01.2006.

LESSIG, L. The Architecture of Innovation. Disponível em <http://www.law.duke.edu/pd/papers/lessig.pdf>. Acesso em 16.01.2006.

LEONARDI, M. Responsabilidade Civil dos Provedores de Serviços de Internet. São Paulo, Editora Juarez de Oliveira, 2005,.

MCCULLAGH, D. U.S. Senator: Keep U.N. away from the Internet. CNet News.com. 19 out. 2005. Disponível em <http://www.zdnetasia.com/news/internet/0,39044246,39280848,00.htm>. Acesso em 16.01.2006.

ORLOWSKI, A. iTunes: DRM cracked wide open for GNU/Linux. Seriously. The Register. Las Vegas: 5 jan 2004. Disponível em: <http://www.theregister.co.uk/2004/01/05/itunes_drm_cracked_wide_open/>. Acesso em 15.01.2006.

OXFORD INTERNET INSTITUTE DA UNIVERSITY OF OXFORD. Disponível em: <http://www.oii.ox.ac.uk/>. Acesso em 16.01.2006.

REINALDO FILHO, D. O Cyberspace como um lugar, um estado mental ou meios de comunicação? InfoJus. Recife: 10 nov. 2000. Disponível em: <http://www.infojus.com.br/webnews/noticia.php?id_noticia=224&>. Acesso em 16.01.2006.

SCHWARTZ, P. Privacy and Democracy in Cyberspace. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=205449>. Acesso em 16.01.2006.

SHAH, R.C.; KESAN, J.P. The Privatization of the Internet's Backbone Network. Disponível em: <http://www.governingwithcode.org/journal_articles/pdf/Backbone.pdf>. Acesso em 16.01.2006.

SPETA, J.B. A Common Carrier Approach to Internet Interconnection. [S.l]: Federal Communications Law Journal, v.54, 2002. Disponível em: <http://www.law.northwestern.edu/faculty/fulltime/speta/papers/CommonCarrier.pdf>. Acesso em16.01.2006.

STANFORD LAW SCHOOL CENTER FOR INTERNET AND SOCIETY. Disponível em: <http://cyberlaw.stanford.edu/>. Acesso em 16.01.2006.

STANFORD LAW SCHOOL. The Policy Implications of End-to-End. Disponível em: <http://cyberlaw.stanford.edu/e2e/details.html>. Acesso em: 16.01.2006.

TECHNOREALISM. Technorealism. Disponível em <http://www.technorealism.org>. Acesso em 15.01.2006.

UNIÃO INTERNACIONAL DE TELECOMUNICAÇÕES. Repositório oficial das informações referentes ao World Summit on the Information Society. Disponível em: <http://www.itu.int/wsis>. Acesso em: 16.01.2006.

WEINBERG, J. The Internet And "Telecommunications Services," Universal Service Mechanisms, Access Charges, and Other Flotsam of the Regulatory System. New Haven, CT: Yale Journal on Regulation, 1999. Disponível em: <http://www.law.wayne.edu/weinberg/FLOTSAM.a04.PDF>. Acesso em 16.01.2006

WORKING GROUP ON INTERNET GOVERNANCE. Apresenta os resultados obtidos pelo Grupo de trabalho de Governança da Internet. Disponível em: <http://www.wgig.org>. Acesso em 16.01.2006.

WORLD WIDE WEB CONSORTIUM. Web site do World Wide Web Consortium. Disponível em: <http://www.w3.org/>. Acesso em 16.01.2006.

WU, T. Application-Centered Internet Analysis. New York: Columbia Law Review, 1999. Disponível em: <http://papers.ssrn.com/sol3/Delivery.cfm/99033015.pdf?abstractid=157928&mirid=2>. Acesso em 16.01.2006.