Вы находитесь на странице: 1из 155

1

WILKEN DAVID SANCHES

O MOVIMENTO DE SOFTWARE LIVRE E A PRODUÇ ÃO

COLABORATIVA DO CONHECIMENTO

Mestrado em Ci ências Sociais

PONTIFí CIA UNIVERSIDADE CAT ÓLICA – PUC­SP

S ÃO PAULO – 2007

2

WILKEN DAVID SANCHES

O MOVIMENTO DE SOFTWARE LIVRE E A PRODUÇ ÃO

COLABORATIVA DO CONHECIMENTO

Mestrado em Ci ências Sociais

PONTIFí CIA UNIVERSIDADE CAT ÓLICA – PUC­SP

S ÃO PAULO – 2007

Dissertaç ão apresentada à banca examinadora da Pontif í cia Universidade

Cat ó lica de S ão Paulo, como exig ência parcial para a obten ção do t í tulo de

Mestre em Ci ências Sociais, sob a orienta ção da Prf.ª Dr.ª Maria Celeste Mira

3

BANCA EXAMINADORA

4

RESUMO

A

disserta çã o

trata

da

constru çã o

de

um

modelo

colaborativo

de

produ çã o

do

conhecimento pelo Movimento de Software Livre e seu embate com a atual legisla çã o de

propriedade intelectual. É descrita a g ê nese do movimento de software livre e como ele vem

sendo

consolidado

como

um

campo

aut ô nomo

de

produ çã o

do

conhecimento.

Para

exemplificar o modelo de produ çã o proposto pelo Movimento de Software Livre e suas

comunidades virtuais, é feita uma an á lise da organiza çã o e da estrutura para tomada de

decisõ es do projeto Debian. A disserta çã o explora as limita çõ es do atual modelo de

propriedade intelectual e como este vem se tornando uma poderosa ferramenta para o

aprisionamento do conhecimento dentro de institui çõ es privadas. Por fim, é apresentado, de

que forma esse novo modelo de produ çã o colaborativa ultrapassa o desenvolvimento de

softwares e passa

a influenciar outras á reas do conhecimento, abandonando a id é ia de

propriedade intelectual e aproximando­se do conceito de patrim ô nio intelectual.

PLAVRAS­CHAVE: software livre, comunidades virtuais, campo hacker, propriedade

intelectual, redes de compartilhamento, conhecimento colaborativo, sociedade da informação.

5

ABSTRACT

This dissertation approaches the construction of a collaborative model of knowledge

production disseminated by the Free Software Movement and its opposition to the current law

of intelectual property. It describes the genesis of the free software movement as well as how it

has become consolidated as an independent domain of knowledge production. In order to better

illustrate the model of production proposed by the Free Software Movement and its virtual

communities, this paper presents an analysis on the Debian project´s organization and structure

for the making of decisions. It explores the limitations of the current model of intelectual

property and how it has become a powerful tool for making knowledge a prisoner of private

institutions. At last, this dissertation presents how this new model of collaborative production

surpasses the software development and begins to influence different areas of knowledge,

leaving behing the idea of intelectual property and becoming a concept of intelectual

inheritance.

Key words: free software, virtual communities, hacker´s field, intelectual property, sharing

nets, collaborative knowledge, information society.

6

AGRADECIMETOS

Agrade ç o a todos que estiveram ao meu lado durante este processo auxiliando na coleta de

dados e no debate deste tema que tanto me fascina, principalmente à minha orientadora Profa.

Dra. Maria Celeste Mira, por sua paci ê ncia, perseveran ç a e orienta çã o clara, quando tudo

parecia extremamente confuso. Ao amigo Frederico Souza Camara, a quem devo muito pelos

longos debates sobre o funcionamento das comunidades de software livre e pelas longas horas

de consultoria sobre sistemas operacionais e suas estruturas de funcionamento. Aos professores

Marco Antonio de Almeida e Marijane Lisboa, agradeç o pelas pondera çõ es e cr íticas que me

auxiliaram a tornar mais consistente esta disserta çã o. Ao Prof. Dr. S é rgio Amadeu da Silveira

por suas pondera çõ es e esclarecimentos sobre o modelo de produ çã o colaborativa e pelo envio

de suas pesquisas. Aos amigos Edgard Piccino e Daive Kuhn pela hospitalidade em Porto

Alegre, durante as edi çõ es do F ó rum Internacional do Software Livre e em Bras í lia. Aos

hackers Edimilson Novaes, Hugo Cisneiros, Jos é Roberto, Luiz Paulo, Luiz Capitulino,

Fernando Ike, Eduardo Ma ç an, Fá bio Telles, Jefferson Alexandre e Eduardo Lisboa pelas

entrevistas concedidas, os debates acalorados e principalmente pelo suporte t é cnico prestado

durante toda pesquisa. À Beatriz Tibiri ç a, Jo ã o Cassino, Bianca Miguel, Kiminoshin Yoshida,

Stela Kuperman, Rodolfo Avelino, Luiz Ant ônio de Carvalho, Carlos Afonso, Paulo Lima e

toda a equipe do Coletivo Digital, Cooperjovem e RITS me apoiaram durante esta jornada. À

amiga Milene Ribas, devo muitas horas de debate, apoio na pesquisa e revis ã o dos textos. Por

fim, agrade ç o aos companheiros do Á cido L á tico, Caio Machado, Raul Luiz e Thiago

Esperandio, que atrasaram em mais um ano a grava çã o de seu registro fonogr á fico para que eu

pudesse concluir esta pesquisa.

7

Í ndice

Introdução ­ Tecnologia e modernidade

08

Capítulo 1 ­ A gênese do Movimento de Software Livre e a Dinâmica do campo hacker

19

A dinâmica do campo hacker

28

Capitulo 2 ­ A organização da comunidade Debian

42

Estrutura para a tomada de decisões

52

Capítulo 3 ­ Conhecimento : proteção versus aprisionamento

70

Capítulo 4 ­ Da propriedade ao patrimônio intelectual

95

Bibliografia

109

Sites consultados

117

ANEXOS

119

8

Introdu çã o ­ Tecnologia e modernidade

O paradigma da modernidade foi criado como um projeto ambicioso e revolucion ário,

por é m repleto de contradi çõ es internas. A principal delas é a eterna busca entre o equilí brio

das for ç as reguladoras e emancipadoras que o comp õ em.

Durante o processo histó rico, cada um desses pilares, sobre os quais foi erguido o

paradigma da modernidade, a saber, o pilar da regula çã o e o da emancipa çã o, teve

desenvolvimentos desiguais, acarretando distor çõ es e desequilí brios entre estas for ç as.

Segundo Boaventura de Souza Santos (2002), cada um dos pilares de sustenta çã o do

paradigma, foi composto por tr ê s princ í pios. O pilar de regula çã o é formado pelos princ í pios

do Estado, do mercado e da comunidade, e o pilar da emancipa çã o composto pelas ló gicas da

racionalidade est é tico­expressiva

das

artes

e

da

literatura,

a

racionalidade cognitivo­

instrumental da ci ê ncia e da tecnologia e a racionalidade moral­pr á tica da é tica e do direito.

Para que fosse possível a realizaçã o do projeto da modernidade, seria necess á rio alcan çar n ã o

s ó o equil í brio entre os pilares da regula çã o e da emancipa çã o, mas tamb é m o equil í brio

entre os princ í pios que compunham cada um dos pilares. Contudo, à semelhan ç a dos pilares

da modernidade, cada um desses princ ípios tende à maximiza çã o de suas potencialidades o

que torna quase impossível o equil í brio.

Se por um lado a abrang ê ncia do projeto da modernidade permitia que se abrisse um

vasto campo para as inova çõ es sociais e culturais, sua complexidade interna tornava

impossível evitar que algumas de suas promessas fossem cumpridas em excesso, enquanto

outras n ã o fossem realizadas. Promessas como erradica çã o da fome, das guerras, das doen ç as

e do trabalho penoso realizado pelos homens atrav é s do uso racional da conhecimento

humano, se cumpriram em partes, ou se preferirmos, para uma parte da sociedade.

No campo da regula çã o, os princ í pios do Estado, pautados pela obriga çã o pol í tica

vertical entre o Estado e os cidad ã os e os de comunidade, baseados na obriga çã o polí tica

horizontal solid á ria entre os membros da comunidade e entre associa çõ es foram suprimidos

9

em detrimento do princ í pio de mercado, o que

potencializou

ao m á ximo a obriga çã o

polí tica horizontal individualista e antag ô nica entre os parceiros de mercado. No campo da

emancipa çã o, a ló gica potencializada foi a racionalidade cognitivo­instrumental da ci ê ncia e

da tecnologia. Este desequilí brio gerou o que Santos definiu como “hipercientificiza çã o” do

pilar da emancipa çã o, segundo a qual, seria poss ível por meio da ci ê ncia, do uso racional da

t é cnica e da amplia çã o das capacidades produtivas, acabar com a escassez e a priva çã o,

liberando o homem do trabalho penoso, da doen ç a e da fome.

N ã o h á dú vidas de que a modernidade conseguiu cumprir parte de suas promessas. No

iní cio do s é culo XXI, boa parte do trabalho penoso dentro das ind ústrias foi substitu í do por

aut ômatos. A capacidade produtiva da sociedade teve um aumento sem precedentes e o

avan ç o da ci ê ncia na á rea da sa ú de permitiu que se descobrisse a cura de v á rias doen ç as que

no passado assolaram a humanidade. No entanto, algumas promessas ficaram por cumprir.

Depois de automatizar as f á bricas, a

modernidade n ã o soube o

que

fazer com os

trabalhadores que foram substitu ídos e, apesar de se produzirem alimentos suficientes para

todos, a fome no mundo ainda persiste e pessoas ainda morrem de doen ç as que h á

tempo se conhece a cura.

muito

A

hipercientificização

do

pilar

da

emancipação

permitiu

promessas

brilhantes e ambiciosas. No entanto, a medida que o tempo passava, tornou­se

claro não só que muitas dessas promessas ficaram por cumprir, mas também que a

ciência moderna, longe de eliminar os excessos e os déficits, contribuiu para os

recriar

em

moldes

sempre

renovados,

deles.(SANTOS – 2002:56 )

e,

na

verdade,

para

agravar

alguns

Durante muito tempo, esses excessos foram interpretados como desvios fortuitos e os

d é fices foram vistos como falhas que seriam corrigidas com o tempo, gra ç as à aplica çã o

racional dos crescentes recursos materiais e intelectuais que estavam sendo gerados pela

modernidade. A corre çã o desses d é fices e a administra çã o dos excessos da modernidade

foram confiados principalmente à ci ê ncia e, em segundo, plano ao direito.

10

No s é culo XIX, a converg ê ncia entre o paradigma da modernidade e o capitalismo, e a

transforma çã o da ci ê ncia em for ç a produtiva fizeram com que os crit é rios cientí ficos de

efici ê ncia e efic ácia se tornassem hegemonicos, a ponto de colonizarem os outros princ í pios

emancipat ó rios. A é tica, o direito e arte foram cobertos pela sombra projetada pelos crit érios

cient í ficos.

Se por um lado, Max Weber viu nesta contamina çã o das institui çõ es pelos princ í pios

de efici ê ncia cient í fica, um processo de “racionaliza çã o” da sociedade, que passava a se

expressar dentro das institui çõ es mediante a organizaçã o das atividades humanas sob a forma

de burocracia, ampliando assim, as esferas sociais que podiam ser submetidas à decis ã o

racional. Por outro lado, Habermas (1994) nos lembra que, o mesmo m étodo cient í fico que

nos

levou

à

domina çã o cada vez

mais

eficiente da

natureza,

tamb ém

forneceu

os

instrumentos necess á rios para a domina çã o dos homens.

Essa racionalidade, estende­se [

],

apenas a situações de emprego

poss ível da t écnica e exige por isso, um tipo de ação que implica dominação

quer sobre a natureza quer sobre a sociedade. A acção racional dirigida a fins

é,

segundo

a

sua

própria

(HABERMAS – 1994:46)

estrutura,

exerc ício

de

controlos.

Com a ci ê ncia encarregada de gerir os d é ficites e excessos da modernidade, suas

principais bases de inspira çã o passaram a ser a utilidade econ ô mica, a efetividade, a

velocidade

e a funcionalidade do que é pesquisado, e o direito transformou­se em uma

muleta do processo de cientificiza çã o da sociedade.

Ao direito moderno foi atribu ída a tarefa de assegurar a ordem exigida

pelo capitalismo, cujo desenvolvimento ocorrera em um clima de caos social que

era, em parte, sua obra. O direito moderno passou assim a constituir um

racionalizador de segunda ordem da vida social um substituto da cientificiza ção

da sociedade, o ersatz que mais se aproximava – pelo menos no momento – da

11

cientificização da sociedade que só poderia ser fruto da própria ciência

moderna. (SANTOS – 2002:119, 120)

Ao se converter em for ç a produtiva, a ci ê ncia foi cooptada pelos princ ípios de

mercado e arrastada para o lado das for ças de regula çã o. Esses fatores fizeram com que a

ci ê ncia assumisse um modelo de desenvolvimento t é cnico, totalmente atrelado ao capital,

conseq ü entemente, fazendo com que as pesquisas se voltassem apenas à explora çã o de

mercados e á reas de expans ã o promissoras. Como ressalta Urich Beck (1999) , as empresas

tomam suas decis õ es sobre seus futuros focos de investiga çã o e de produ çã o sobre a base de

progn ósticos do mercado.

O problema central é que este tipo de desenvolvimento empresário e de

inovação

planificada,

normalmente,

não

ocorrem

sencibilizações sociais e articulações de interesses,[

]

como

resposta

a

portanto, não esta em

absoluto influenciado por discussões democráticas sobre as futuras linhas

básicas do desenvolvimento té cnico e se orienta exclusivamente pela medida dos

critérios de rentabilidade e eficiência da economia privada.(BECK­1999 : 158)

O resultado disso é uma ci ê ncia ref ém da l ó gica do mercado, pois com exce çã o das

ag ê ncias estatais de incentivo à pesquisa, a maioria das institui çõ es financiadoras s ó aportam

recursos em projetos que possam gerar lucros à institui çã o. Mesmo nas universidades estatais

brasileiras, j á é

comum encontrarmos salas, laborat ó rios e

bibliotecas mantidas por

multinacionais da ind ú stria farmac ê utica, laborat ó rios de biotecnologia, empresas produtoras

de software e hardware, entre outras, que acabam por influenciar as pesquisas desenvolvidas

dentro na Academia em troca da manuten çã o do espa ç o e do aporte financeiro feito na

universidade.

Com a ci ê ncia ref é m do mercado, desaparece o seu potencial emancipador e cessa o

processo de circulaçã o do conhecimento na sociedade. Hoje, a ci ê ncia constitui a principal

for ç a produtiva da sociedade, e o conhecimento, sua moeda mais cara.

12

O resultado é uma sociedade cada vez mais tecnodependente e ref é m de “sistemas

peritos”, isto é , “sistemas de excel ê ncia t é cnica ou compet ê ncia profissional que organizam

grandes á reas dos ambientes material e social em que vivemos hoje” e, conseq ü entemente,

das institui çõ es que dominam estes conhecimentos. (GUIDDENS – 1991 : 35)

À medida que as no çõ es de racionaliza çã o, compet ê ncia e efici ê ncia cient í ficas

passaram a contaminar outras esferas sociais, as formas alternativas de conhecimento, ou de

produ çã o de conhecimento sobre o mundo passaram a ser desprezadas, legitimando a ci ê ncia

ocidental como a ú nica forma de saber realmente útil. Vandana Shiva, ir á descrever esse

processo como a cria çã o das monoculturas do pensamento, que da mesma forma que as

monoculturas de plantas importadas, levam à substitui çã o e degrada çã o da diversidade local,

destruindo

assim,

as

(SHIVA – 2003 : 25)

condi çõ es

para

que

hajam

formas

alternativas

de

pensar.

A hipercientificiza ção do pilar da emancipa çã o, a transforma çã o da ci ê ncia em for ça

produtiva e a consolida çã o das monoculturas da mente trouxeram um aumento sem

precedentes da nossa capacidade de a çã o. Contudo, essa capacidade de a çã o n ã o veio

acompanhada de uma capacidade de previs ã o das consequ ências dessas a çõ es, confirmando

a afirma çã o de Santos de que, “a previs ã o das consequ ê ncias da a çã o cientí fica é

necessariamente muito menos cientí fica do que a a çã o cient í fica em si mesma.”(SANTOS –

2002:58)

Ao se atrelar a ci ê ncia e o conhecimento por ela gerado, à l ógica do mercado, tornou­

se impossível o desenvolvimento do que Beck chamou de uma “ci ê ncia amiga dos erros”.

Uma vez que, para que a ci ê ncia pudesse conviver de forma harmoniosa com seus erros,

seria preciso diminuir o ritmo dos avan ç os tecnoló gicos, para que estes erros pudessem ser

plenamente compreendidos, de forma que pud é ssemos dizer “sim” à t é cnica e “n ã o” à sua

aplicaçã o, quando este fosse o caso. (BECK – 1999 : 159)

Uma ci ê ncia “amiga dos erros” permitiria que laborat ó rios pesquisassem sobre

13

variedades de vegetais geneticamente modificados, e ao final de sua pesquisa, caso fosse

constatado o risco de contamina çã o ou mesmo a falta de capacidade de prever tais riscos,

dissessem n ã o à aplica çã o daquela t é cnica. Se pensarmos no campo da inform á tica, que a

cada dia se torna mais presente em nossas vidas, uma ci ê ncia amiga dos erros poderia chegar

à conclus ã o que o up­grade de um determinado software, apesar de gerar alguns minutos de

economia ao realizar determinada opera çã o, necessitaria de uma renova çã o do parque de

m áquinas, que geraria uma grande quantidade de lixo t é cnoló gico, composto

em grande

parte por material tó xico, que a longo prazo traria grande preju í zo ao meio ambiente. Nesta

situa çã o, novamente poderiamos dizer “sim” à tecnica e “n ã o” à sua aplicaçã o.

Quando se afirma que somos ref é ns dos sistemas peritos, é justamente por n ã o existir

um debate com a sociedade, nem inst â ncias adequadas para que tal debate aconte ç a; a fim de

que se decida sobre a aplicaçã o ou n ã o de uma determinada t é cnica, essas decis õ es s ã o

delegadas aos peritos, que s ã o respons á veis por calcular os n íveis aceit áveis de risco.

Santos (2002) apresenta duas leituras possíveis dessa incapacidade de prever as

conseq üê ncias da a çã o cient í fica: a primeira dir á que a capacidade de a çã o da ci ê ncia é

excessiva em rela çã o à sua capacidade de previs ã o das conseq üê ncias, enquanto a segunda

afirmar á que a capacidade de previs ã o das conseq üê ncias das a çõ es cientí ficas se encontra

deficit á ria. Essas duas leituras apresentam interpreta çõ es radicalmente opostas, j á que a

primeira põ e em quest ão a no çã o de progresso cientí fico, enquanto a segunda se limita a

exigir mais progresso. Contudo, à medida que os riscos assumidos individualmente pelos

t é cnicos e pelas empresas se tornam riscos coletivos, que por sua vez geram lucros privados,

ganha credibilidade a interpreta çã o que p õ e em quest ã o a no çã o de progresso cient í fico e as

formas alternativas de pensamento voltam a ter voz.

Acredito que estamos vivendo um momento de transi çã o no qual o atual modelo

cient í fico e seus valores est ã o sendo postos em quest ão; os riscos eminentes de contamina çã o

do solo, da á gua e do ar, o perigo constante de guerras fazem com que a sociedade procure

uma alternativa, que n ã o vir á por meio da nega çã o da ci ê ncia e da t é cnica, mas da retomada

14

de seu potencial emancipador. Para que seja possível gerar uma forma alternativa de

pensamento, ser á necess á rio desvincular a ci ê ncia da ló gica do capital, a fim de que

possamos gerar conhecimento como ferramenta de emancipa çã o, garantindo, assim, sua livre

circula çã o em vez de aprision á ­lo dentro das grandes corporaçõ es.

Uma mudan ç a de tal envergadura passa necessariamente pela reestrutura çã o do

estatuto jur í dico da ci ê ncia, que como vimos foi formulado com o intuito de garantir a ordem

social necess á ria para o capitalismo e conseq ü entemente para a consolida çã o da ciê ncia

como sua principal for ç a produtiva.

Como veremos mais adiante, as patentes s ã o hoje a forma mais poderosa de

perpetua çã o

do

atual

modelo

de

produ çã o

cient í fica,

que

impede

a

circula çã o

do

conhecimento mediante a prote çã o dos direitos de propriedade intelectual e aprisiona o

conhecimento dentro de institui çõ es privadas. Esse tipo de legisla çã o vem se configurando

como a principal ameaça à comunica çã o entre os cientistas envolvidos em empreendimentos

comerciais protegidos por elas. Segundo a afirma çã o do nucleobi ólogo Emanuel Estein:

No passado trocar idé ias irrefletidamente era a coisa mais natural do

mundo entre colegas para compartilhar as idé ias recém saídas do contador de

cintilografia ou de uma cé lula de eletroforese, para mostrar uns aos outros

esboços de artigos e dessa forma agir como companheiros numa pesquisa cheia

de

entusiasmo.

Isso

já

não

acontece

mais.

Qualquer

cientista

da

UCD

(Universidade da California em Davies) com uma nova e promissora cultura

para (o melhoramento da safra)

há de pensar duas vezes antes de falar sobre

isso com qualquer uma das duas empresas privadas de genética de plantas

agrícolas de Davies – ou mesmo com colegas que por sua vez, poderiam falar

com essas pessoas. Eu sei que esse tipo de inibição já esta acontecendo.

(KENNETH apud SHIVA – 2001:36, 37)

Nos cap ítulos que se seguem, ser á demonstrado como as atuais leis de propriedade

15

intelectual, que foram criadas como um reflexo do paradigma da modernidade e com o

argumento de proteger e incentivar o avan ç o da ci ê ncia, est ã o se consolidando como a

principal ferramenta para o fechamento do conhecimento dentro de institui çõ es privadas,

promovendo assim, a amplia çã o da capacidade reguladora da ci ê ncia. Al é m disso, ser ã o

apresentadas a g ê nese e a estrutura de funcionamento do Movimento de Software Livre, que

vem consolidando uma nova forma de produ çã o tecnoló gica, que impede a apropria çã o

privada do conhecimento, garante a sua livre circula çã o na sociedade e aos poucos começ a a

contaminar outras á reas de conhecimento.

Contudo, é importante ressaltar que a modernidade ocidental n ã o pressupunha o

capitalismo como o sistema de produ çã o; ambos s ã o processos distintos e aut ô nomos. Na

verdade, o socialismo marxista, ou socialismo cientí fico, tal como o capitalismo, é parte

constitutiva da modernidade. Durante a Guerra Fria, tanto capitalistas como comunistas

mediam o grau de

sucesso de cada um dos lados de acordo com o volume da produ çã o

industrial e com os avan ç os cientí ficos por eles conquistados. É justamente esta disputa, que

ir á gerar as bases da revolu çã o informacional em que n ós vivemos e a infra­estrutura

necessária para a consolida çã o do Movimento de Software Livre, como uma voz dissidente,

dentro do paradigma da modernidade.

Um dos mais importantes marcos da corrida tecnol ó gica gerada pela Guerra Fria data

de 1957, quando a antiga URSS lan ç ou o primeiro sat é lite espacial, o Sputinik, dando assim

o

pontap é inicial à

corrida que originou um

ciclo de revolu çõ es tecnol ó gicas sem

precedentes. Isso porque, em resposta à fa ç anha sovi é tica, o ent ã o presidente dos Estados

Unidos da Am é rica, Eduight Eisenhower, criou a ARPA (Advanced Research Projects

Agency), que iniciou uma s é rie de projetos ousados, visando retomar a lideranç a norte­

americana na disputa tecnol ó gica. Um desses projetos foi a cria çã o de um sistema de

comunica çã o invulner ável ao ataque nuclear, idealizado por Paul Baran e pela Rand

Coporation.

Com base na tecnologia de comuta çã o de pacotes, o packet switching, pretendia­se

16

criar um sistema de comunicaçã o independente de centros de controle, mediante o qual as

mensagens seriam quebradas em pequenas partes, e depois de enviadas, encontrariam suas

rotas ao longo de uma rede, sendo remontadas com sentido coerente, em qualquer ponto

dela.

Em 1968, Larry Roberts, Ivan Sutherland e Bob Taulor, da ARPA, organizam quatro

universidades americanas para a implanta çã o da rede de comuta çã o de pacotes. Denominada

ARPANET, a rede de comunica çã o unia inicialmente apenas as universidades de Stanford,

Berkley, UCLA e Utah. Aberta, a princ í pio, apenas para estes poucos centros de pesquisa, a

ARPANET come ç ou a se desviar de seu objetivo inicial assim que os cientistas come ç aram a

utilizar a rede, para trocar todo o tipo de informa çã o. Rapidamente, ficou dif í cil de separar as

mensagens com fins cient í ficos e militares das correspond ê ncias pessoais.

Esse desvio na fun çã o inicial da rede foi tamanho, que em 1983 ocorreu a divis ã o da

ARPANET,

dedicada

para

fins

cientí ficos

e

a

MILNET,

dirigida

a

fins

militares.

Paralelamente, a Funda çã o Nacional da Ci ê ncia tamb ém passou a se dedicar à cria çã o de

uma rede cient í fica de comunica çã o, a CSNET, e uma rede para fins n ã o cient í ficos, a

BITNET. Todas essas redes, no entanto, ainda utilizavam a ARPANET como sistema de

comunica çã o, que passou ent ã o a ser denominada ARPAINTERNET e, posteriormente,

INTERNET. (CASTELLS 1999: 375; 376)

As conquistas tecnoló gicas das d é cadas de 50, 60 e 70, do s é culo XX, tais como o

avan ç o da microeletrô nica, a inve çã o do transistor, do microprocessador e a populariza çã o da

computa çã o pessoal, fundam o que Manuel Castells definiu como a sociedade em rede.

Munida desses avan ç os tecnol ógicos, mais uma vez, a modernidade reinvetou em novos

moldes, antigas desigualdades, criando outras possibilidades de regula çã o da humanidade.

Contudo,

algumas

caracter ísticas

do

novo

modelo

abriram

outras

possibilidades

de

emancipa çã o, atualmente exploradas pelos militantes do Movimento de Software Livre.

Algumas dessas caracter ísticas emancipat ó rias nascem junto com a pr ó pria Internet,

17

que se configurar á como o principal veí culo de comunica çã o e articula çã o desses novos

ativistas, que encontram, no barateamento da computa çã o pessoal e na comunica çã o em

rede, uma forma alternativa de produ çã o do conhecimento, aqui designada como produ çã o

colaborativa.

Como vimos anteriormente, a Internet tem seu impulso inicial por meio da a çã o

combinada da grande ci ê ncia e os interesses militares do governo norte americano. No

entanto, é pela interface entre os programas de macropesquisa e grandes mercados

desenvolvidos pelos governos e a inova çã o descentralizada estimulada por uma cultura de

criatividade tecnol ó gica e por modelos de sucessos pessoais r á pidos, que a tecnologia da

informaçã o proposperar á.

Ao tratarmos a histó ria da sociedade da informa çã o, temos que ter em mente as tr ê s

for ç as que a impulsionam e modelam seu desenvolvimento, a saber, as a çõ es e iniciativas de

macropesquisa governamentais, muitas vezes com fins militares, as inova çõ es tecnol ógicas

levadas a cabo pelo mercado e a a çã o dos hackers. Se por um lado a ARPA deu o impulso

inicial ao que viria a se tornar a Internet, ao financiar um projeto de cria çã o de uma rede de

comunica ções

horizontal,

foram

os

hackers

que

possibilitaram

a

conex ã o

entre

os

microcomputadores e mais adiante a conex ã o desses à Internet por meio de uma linha

telefô nica comum.

O Modem, importante elemento desse sistema, foi inventado por dois

estudantes de Chicago, Ward Christensen e Randy Suess, em 1978, quando

tentavam transferir programas de um microcomputador para outro utilizando

uma linha telefônica, a fim de evitar uma longa viagem entre suas localizações

durante o inverno de Chicago. Em 1979, os inventores difundiram o protocolo

Xmodem, permitindo que computadores transferissem arquivos diretamente sem

passar por um sistema principal. E difundiram a tecnologia sem nenhum custo

porque o objetivo era espalhar as capacidades de comunicação o máximo

poss ível. (CASTELLS – 1999:337)

18

Os hackers fazem parte da hist ó ria dos intelectuais que desenharam o atual formato da

Internet,

sem

necessariamente

receber

financiamentos

do

Estado,

ou

o

apoio

das

universidades, mesmo quando se encontravam dentro de sua estrutura. A a çã o desses agentes

buscava maximizar o potencial emancipador das novas tecnologias, n ã o s ó por meio do

desenvolvimento de novas t é cnicas, mas tamb é m propondo novos usos ao conhecimento j á

existente.

Atualmente, o termo hacker passou a ser utilizado, de forma equivocada, pela imprensa

para rotular pessoas que cometem crimes utilizando­se de recursos informacionais. No

entanto, quando me referir ao termo hacker durante essa disserta çã o, estarei fazendo

referê ncia ao seu significado original que est á ligado à s id é ias de “programar por prazer” e

do “fazer elegante”, as quais ser ã o retomadas mais adiante. Para descrever os indiví duos que

utilizam seus conhecimentos para cometer crimes atrav é s do uso de computadores, o termo

adequado é cracker.

O que come ç ou com a çõ es desconexas nos anos 60 e 70 acabou por dar subs í dio ao

que viria a se tornar uma esp é cie de é tica hacker. No in í cio dos anos 80, come ç am a surgir as

primeiras a çõ es do Movimento de Software Livre, que é hoje o grande campo de atua çã o dos

hackers em nossa sociedade, apesar de n ã o ser o único. No cap ítulo seguinte, ser ã o

apresentados alguns termos que ser ã o utilizados durante toda esta disserta çã o, al é m de dar

um breve panorama sobre a hist ó ria e o funcionamento do Movimento do Software Livre e a

forma

como

este

tenta

se

consolidar

como

um

campo

autô nomo

de

produ çã o do

conhecimento, tal qual o campo da arte ou da produ çã o erudita.

19

Cap í tulo – 1

A g ê nese do Movimento de Software Livre e a Dinâ mica do campo hacker

Um dos eventos fundadores do Movimento de Software Livre foi, sem d ú vida, a

compra de uma impressora da marca Xerox pelo Laborat ó rio de Intelig ê ncia Artificial do

MIT (Massachusetts Institute of Technology), onde trabalhava Richard Stallman, considerado

um dos principais ide ó logos do movimento. Mais importante do que a compra do novo

equipamento, o Movimento de Software Livre foi beneficiado por um defeito do driver de

dispositivo

da

impressora,

isto

é ,

do

programa

de

computador

que

gerenciava

seu

funcionamento. Depois de fracassarem todas as tentativas para colocar a nova impressora em

funcionamento, a equipe resolveu contactar a Xerox e pedir o c ó digo fonte 1 do programa que

a gerenciava, para que assim fossem feitas as mudan ç as necess á rias e ela passasse a

funcionar no computador do MIT. A Xerox forneceu o c ó digo fonte e as alteraçõ es foram

feitas com sucesso. Procurados por outra universidade, que tamb é m havia comprado uma

impressora do mesmo modelo, Stallman e seus companheiros de equipe forneceram o c ó digo

fonte com as altera çõ es necess árias, para o funcionamento do equipamento. No ano seguinte,

o MIT renovou seu parque de m áquinas e outra impressora da Xerox foi adquirida. Como j á

havia acontecido no passado, o equipamento n ã o funcionou e novamente Stallman procurou

a Xerox para que ela fornecesse o c ó digo fonte do programa de gerenciamento da impressora.

No entanto, dessa vez a Xerox negou­se a fornecer o c ó digo, a menos que a equipe do MIT

20

pagasse por ele e assinasse um

“nondisclosure agreement”, um acordo de n ã o revelar.

Stallman n ã o aceitou o acordo e resolveu procurar a universidade a qual eles haviam ajudado

no passado. A equipe da universidade disse ter enfrentado as mesmas dificuldades com o

novo equipamento, mas havia solucionado os problemas com uma altera çã o no c ó digo fonte

do programa. No entanto, quando Stallman solicitou o c ódigo com as altera çõ es, os

desenvolvedores lhe disseram que n ã o poderiam fornecer,

nondisclosure agreement.

pois haviam assinado um

Em uma de suas palestras sobre o projeto GNU, realizada em fevereiro de 2002, no 2º

F ó rum Social Mundial, Stallman disse ter ficado t ã o inconformado com aquela situa çã o que

decidiu que

n ã o

seria

mais

ví tima,

nem

vitimaria

outras

pessoas

com

acordos

de

nondisclosure agreement. Quando ingressou no MIT em 1971, Stallman fazia parte de uma

equipe que utilizava exclusivamente softwares livres. Esta equipe estava inserida em uma

comunidade maior, que agregava equipes de v á rios laborat ó rios e universidades, que estavam

acostumados a trocar informa çõ es e programas de computador como uma forma de se

ajudarem mutuamente. Contudo, esse universo de compartilhamento do conhecimento estava

acabando, com a mudan ç a do modelo de neg ó cio das empresas de software nos anos 80, que

passaram a cobrar pela licen ç a de uso de seus programas. À medida que aumentava o

n úmero de laborat ó rios que utilizavam softwares propriet á rios, a comunidade na qual

Stallman estava inserido passava a desaparecer. (Stallman­2005:161)

Em 1983, Richard Stallman lan ç a o manifesto intitulado UNIX Livre. O documento

anunciava a criaçã o de um projeto chamado GNU (GNU is not UNIX), um acr ô nimo

recursivo utilizado para dizer que o GNU seria um sistema operacional livre, compatí vel com

o UNIX, mas n ã o id ê ntico.

Em 1984, Richard Stallman renuncia ao seu cargo no MIT e come ç a a programar o

Sistema GNU. Com sua sa í da do MIT, Stallman garante que a institui çã o n ã o possa

influenciar na distribui çã o do sistema GNU como um software livre e evita que seu trabalho

se desvie da finalidade para a qual foi idealizado. (Stallman – 2005:164)

21

Em 1985, é fundada a FSF (Free Software Foundation) uma institui çã o sem fins

lucrativos com o objetivo de captar recursos, estimular o desenvolvimento e disseminar o uso

do software livre, al é m de dar respaldo jur í dico aos seus desenvolvedores. Nesse momento, o

conceito de software livre consolida­se e, a partir de agora, quando me referir ao termo, terei

como base a defini çã o da Free Software Foundation, segundo a qual, para que um programa

de computador possa ser definido como um software livre ele dever á garantir ao usu ário

quatro liberdades, a saber:

1.
1.

liberdade de executar o programa para qualquer finalidade, sem qualquer tipo de

embargo;

liberdade de alterar o programa, para que ele se adapte à s suas necessidades. (Para à s suas necessidades. (Para

que esta liberdade seja assegurada, é indispens á vel que o programa venha acompanhado

do seu c ó digo fonte);

3.
3.

liberdade de distribuir c ó pias do programa, gratuitamente, ou em troca de um

pagamento;

4.
4.

liberdade de distribuir c ó pias modificadas para que toda a comunidade possa se

beneficiar das melhorias feitas no programa.

O projeto GNU foi baseado em grande parte no sistema operacional criado pelo Bell

Labs da AT&T, o UNIX. Mas por que optar por fazer um sistema semelhante ao UNIX ao

inv é s de criar um sistema operacional do marco zero?

Para que se possa entender essa estrat é gia, é preciso ter claro o que é um sistema

operacional e como se deu o surgimento do pr ó prio UNIX. qual o motivo desse sistema, e

n ã o outro, tornar­se o preferido principalmente entre os laborat ó rios das universidades,

passando a ser o principal sistema instalado nos supercomputadores dessas institui çõ es?

Comecemos ent ã o pela defini çã o de sistema operacional. Deitel nos traz a seguinte

defini çã o:

22

Vemos um sistema operacional como os programas implementados como

software ou firmware, que tornam o hardware utilizável. O hardware oferece a

capacidade computacional bruta. Os sistemas operacionais disponibilizam

convenientemente tais capacidades aos usuários, gerenciando cuidadosamente o

hardware

para

que

se

obtenha

(DEITEL – 1992 apud JANDL – 1999:10)

uma

performance

adequada

A defini çã o de Deitel nos apresenta novos termos a serem esclarecidos como

hardware, software e firmware. O hardware s ã o as partes f í sicas do sistema computacional,

isto é, o conjunto de dispositivos el é tricos, eletr ô nicos, ópticos e eletromecâ nios que

comp õ em o computador. Os softwares s ã o os programas que est ã o instalados no computador

e representam a parte l ógica do sistema computacional. Por fim, o firmware é representado

por programas especiais armazenados de forma permanente no hardware do computador que

permitem o funcionamento elementar e a realiza çã o de opera çõ es b ásicas em certos

dispositivos do computador, tais como placas de rede, ou associados a alguns perif éricos,

como impressoras, roteadores e scaners.

O firmware geralmente vem acondicionado em circuitos de memória não

volá til (ROM, PROM e EPROM) sendo os programas ali gravados escritos

geralmente em linguagem de máquina e destinados à execução de operações

especiais tal como a auto­verifica ção inicial do sistema e a carga do sistema

operacional

a

partir

(JANDL – 1999:10)

de

algum

dispositivo

adequado.

Para que um computador se torne utiliz ável al é m, dos dispositivos de hardware s ã o

necessárias v á rias camadas de software, o sistema operacional constitui apenas uma delas,

como podemos ver no diagrama abaixo:

23

 

Aplicativos : editores de

texto,

planilhas

de

c á lculo,

navegadores etc.

 
 

Sistema Operacional

 

Firmware

 

Hardware

O sistema operacional envolve toda a camada f í sica do computador

sendo o

respons ável por intermediar a comunica çã o entre o usu ário e o hardware do computador.

Caso ele n ão existisse, todas as solicita çõ es que fossem feitas à m áquina deveriam ser

emitidas em linguagem bin ária, isto é , em forma de 0 e 1, o que transformaria a mais simples

das aplicaçõ es em uma penosa tarefa. Al é m disso, o sistema operacional tamb é m fornece um

ambiente de desenvolvimento mais apropriado para que possam ser confeccionados os

chamados aplicativos, os softwares para tarefas espec í ficas, como editores de texto, planilhas

de calculo, clientes de e­mail que rodam sobre o sistema operacional. Mais uma vez, caso

n ã o houvesse um int é rprete entre o homem e a m áquina, os aplicativos deveriam ser escritos

todos em linguagem de máquina, isto é , comandos bin á rios, o que tornaria essa tarefa ainda

mais dif í cil, uma vez que existem v á rias arquiteturas de computadores, cada uma com uma

linguagem especí fica.

Devido ao grau de complexidade envolvida no desenvolvimento desses sistemas, eles

s ã o formados por v árias camadas e v ários programas menores, al é m de um n ú cleo central,

denominado kernel, respons á vel por gerenciar prioridades e garantir a comunicaçã o entre os

outros programas que formam o sistema operacional.

Retomemos agora o motivo pelo qual o UNIX foi utilizado como o modelo a ser

24

seguido para o desenvolvimento do projeto GNU. Quando lan ç a o Manifesto GNU

(ANEXO1), Richard Stallman inicia o seu texto com o seguinte par á grafo:

GNU, que significa Gnu Não é Unix, é o nome para um sistema de

software completo e compat ível com o Unix, que eu estou escrevendo para que

possa fornecê­lo gratuitamente para todos os que possam utilizá­lo. Vários

outros voluntários estão me ajudando. Contribuiçõ es de tempo, dinheiro,

programas e equipamentos são bastante necessárias.(STALLMAN ­ 1983)

Em outro trecho do manifesto, que tamb é m merece destaque para a nossa an á lise,

Stallman diz o seguinte:

GNU será capaz de rodar programas do Unix, mas não será idêntico ao

Unix. Nós faremos todos os aperfei çoamentos que forem convenientes, baseados

em nossa experiência com outros sistemas operacionais

Unix não é o meu

sistema ideal, mas ele não é tão ruim. Os recursos essenciais do Unix parecem

ser bons recursos, e eu penso que posso fornecer o que falta no Unix sem

comprometê­lo. E um sistema compatível com o Unix seria conveniente para

muitas pessoas adotarem.(STALLMAN ­ 1983)

Na verdade, a escolha por fazer um sistema baseado no UNIX facilitou o trabalho

colaborativo dentro do projeto GNU. Se o sistema fosse ser criado do marco zero e cada

desenvolvedor interessado no projeto programasse uma parte diferente do sistema, isso

acarretaria uma demora muito grande para se obter os primeiros resultados pr á ticos, al é m

de um esfor ç o herc úleo com o prop ó sito de juntar as diferentes partes do sistema. Ao

passo que se cada desenvolvedor confeccionasse um programa equivalente a um do UNIX

e compat ível com esse sistema operacional, o trabalho seria muito mais f á cil, n ã o s ó para

os desenvolvedores, como para as pessoas interessadas em utilizar o novo sistema

operacional. A id é ia por tr á s do projeto GNU é que, assim como o UNIX, ele seria

um

sistema modular. Dessa forma, a medida que novos programas ficassem prontos eles

25

poderiam substituir os seus equivalentes no UNIX, at é que um dia, todo o sistema fosse

GNU.

Outro motivo para a escolha do UNIX foi sua popularidade no meio acad ê mico, que

est á diretamente ligada à forma como o sistema foi concebido. O UNIX foi desenvolvido por

Dennis Riche e Ken Thompson no Bell Labs da AT&T e rapidamente ganhou os laborat ó rios

das universidades adquirindo grande popularidade entre os hackers. Parte desse sucesso se

deu pela sofistica çã o do sistema que apresentava a filosofia do “pequeno é bonito”,

como

proposta de funcionamento, contendo um pequeno conjunto de blocos de constru çã o simples

e que podiam ser combinados para obter resultados de alta complexidade. Em seu livro Só

por prazer, Linus Torvalds (2001) lembra que a simplicidade do UNIX n ã o pode ser

confundida com a falta de sofistica çã o dando como exemplo os idiomas humanos.

O inglês tem 26 letras e é possível fazer tudo a partir delas. E temos o

chinês, em que há uma letra para cada coisa que se possa pensar. Nele você

parte da complexidade e pode combina­las de forma limitada[

]

a escrita

pictória como os caracteres chineses e os hieróglifos, tende a acontecer primeiro

e a ser “mais simples”, ao passo que o enfoque do bloco de construção demanda

muito mais pensamento teórico. (TORVALDS – 2001: 80, 81)

Al é m da sofistica çã o e robustez do sistema, a popularidade do UNIX se deu em boa

parte pela maneira como foi desenvolvido e disponibilizado aos usu á rios. Se, por um lado, o

requinte teó rico saltava aos olhos quando se analisava a estrutura de funcionamento do

UNIX, por outro, os objetivos que motivaram seus criadores durante a confec çã o do sistema

podem n ã o parecer t ão sofisticados assim. Na verdade, o sistema foi criado originalmente

para que

seus

desenvolvedores pudessem jogar Guerra nas Estrelas em um computador

PDP­11. (TORVALDS – 2001: 81 )

O UNIX come ç ou como um projeto pessoal de Denis Richie e Ken Tompson e, como o

sistema operacional n ã o era considerado um projeto s é rio, a AT&T n ão pensou nele em

26

termos comerciais. Assim, seus criadores o disponibilizaram livremente, junto com seus

c ó digos fonte, principalmente para universidades.

É preciso lembrar que a AT&T era um monop ó lio controlado pelo Estado e, at é 1984,

n ã o tinha autoriza çã o para comercializar programas de computador. No entanto, quando

houve a cis ã o da AT&T e ela obteve a permiss ã o para ingressar no mercado de softwares, a

empresa tentou retomar o UNIX como um produto comercial. O problema encontrado pela

AT&T é que nessa é poca os cientistas da computa çã o das universidades, em particular os da

Universidade da Calif órnia em Berkeley, j á vinham trabalhando neleh á anos.

Em 1990, o UNIX j á havia se tornado o sistema operacional nú mero um nos

computadores de grande porte e representava um neg ó cio de milh õ es de dolares, o que fez

com que a AT&T acionasse judicialmente a Universidade da Calif ó rnia em Berkeley. O

objetivo da a çã o era impedir que a universidade continuasse mantendo e distribuindo uma

vers ã o do UNIX chamada de BSD (Berkeley Software Distribution), uma vez que o c ó digo

original pertencia à AT&T. A universidade, por sua vez, afirmava que o c ó digo da AT&T

tinha sido quase todo reescrito gra ç as ao esfor ç o de seus cientistas, e que a empresa n ã o tinha

o direito de impedir que a universidade distribu ísse gratuitamente, ou mesmo cobrasse um

valor nominal sobre as c ó pias do UNIX BSD, por ela mantido. (TORVALDS – 2001: 82)

Esse impasse judicial s ó teve fim quando a Novell Inc. comprou o c ó digo fonte do

UNIX da AT&T e retirou o processo contra a Universidade da Calif ó rnia em Berkeley.

Durante o per í odo, em que o impasse se arrastou na justi ç a, novos atores entraram em a çã o e

come ç aram a ganhar espa ç o junto aos usu á rios do UNIX; eram eles o pró prio projeto GNU e

o Linux, que mais tarde se fundiriam no sistema operacional GNU/Linux.

Essa fus ã o se deu por um atraso no projeto GNU. Como disse anteriormente, um

sistema operacional é formado por v á rios programas menores, al é m de um nú cleo central

denominado kernel, que tem por fun çã o garantir a comunicaçã o entre todos esses programas

e gerenciar as prioridades do sistema. No in í cio do projeto GNU, Stallman pretendia que o

27

sistema funcionasse com um esquema de microkernels, ao inv é s de um kernel monol ítico

que gerenciaria todo o sistema operacional. Ele teria v á rios n ú cleos que dividiram as tarefas

em quantas partes fossem possíveis, resolveria cada uma delas e depois as juntaria

novamente, tal qual o m étodo cartesiano. Dessa forma, ele pretendia diminuir o grau de

complexidade das tarefas executadas e aumentar a performance do sistema. Contudo, um

atraso na conclus ã o do kernel do GNU faz com que, em 1991, Linus Torvads lance a primeira

vers ã o do Linux, um projeto de kernel monol í tico que se utilizava de alguns programas j á

desenvolvidos pelo projeto GNU. Ao contr ário de Stallman, Linus Torvalds achava que um

kernel monol í tico, que controlasse todo o sistema operacional seria muito mais eficiente e

simples de programar, pois, depois de quebrar todas as tarefas executadas pelo sistema

operacional em centenas de partes e resolv ê ­las separadamente, a tarefa de junta­las

novamente acabava sendo extremamente complexa e prejudicava ainda mais a performance

do

sistema

operacional. Ainda

hoje

existem

os

defensores

do

sistema

baseado em

microkernels, e esse subprojeto n ã o foi interrompido dentro do projeto GNU. Apesar de ter

um ritmo de desenvolvimento muito lento, o Hurd, como é chamado o projeto de

microkernels do GNU, continua sendo aperfei ç oado. Mas o fato é que Torvalds tinha razã o

em pelo menos um ponto, o kernel monol í tico era muito mais f á cil de programar e, por esse

motivo, ele foi o primeiro a ficar pronto.

Em 1993, Patrick Volkerding lan ç a o Slackware à disttribui çã o GNU/Linux, mais

antiga ainda em atividade, que significa sistema GNU com kernel LINUX. Da í em diante,

v á rias outras distribui çõ es seriam lan ç adas, algumas mantidas por universidades, outras

desenvolvidas por empresas e outras que contavam apenas com a colabora çã o de hackers

espalhados

pelo

mundo

e

que

tinham

como

principais

ferramentas

de

a çã o

seus

conhecimentos e um computador conectado à Internet.

Com a evolu çã o do software livre, as distribui çõ es passaram a funcionar da mesma

forma que as editoras, tendo como fun çã o publicar, no sentido de tornar p úblico, e

homologar a qualidade do que é desenvolvido pelas comunidades de software livre,

28

tornando­se tamb é m as principais entidades legitimadoras do conhecimento hacker. Assim

como os editores, os mantenedores de uma distribui çã o s ã o os respons áveis por sondar quais

projetos est ã o sendo desenvolvidos pelas comunidades e qual o n ível de estabilidade de cada

programa, para que possam fazer uma colet â nea de programas, empacota­los em uma m ídia

e distribu í ­los aos interessados. Um usu ário que adquirir um CD de uma distribui çã o

encontrar á nele, al é m dos pacotes b á sicos para o funcionamento do sistema operacional

GNU/LINUX, todos os programas e aplicativos que os mantenedores da distribui çã o acham

necessários para o funcionamento de um computador, como editores de texto, imagem, v í deo

e som, planilhas eletr ô nicas, navegadores de Internet, entre outros.

À medida que o software livre ganha mais espa ç o, a organiza çã o do movimento passa a

adquirir um grau maior de complexidade e come ç am a se formar diversas comunidades em

torno de distribui çõ es e de softwares espec í ficos, com o intuito de acelerar o seu

desenvolvimento.

Al é m

disso,

passa

a

ser

criada

uma

s é rie

de

organizaçõ es

n ã o

governamentais e grupos de usu á rios, cujos objetivos variavam desde levantar fundos para os

projetos e dar respaldo jur í dico aos desenvolvedores, at é difundir o software livre em outros

campos da sociedade. Assim, de agora em diante quando me referir ao Movimento de

Software Livre, estarei fazendo men çã o a todas essas institui çõ es. O termo comunidade ser á

utilizado para designar os grupos de programadores, ou usu á rios que se organizam em torno

de um projeto espec í fico ou de uma distribui çã o.

A dinâ mica do campo hacker

No in í cio do movimento, as comunidades de software livre podiam ser comparadas a

uma “sociedade de admira çã o mú tua”. A maioria dos desenvolvedores se conheciam por

interm é dio das listas de discussã o na Internet, das quais faziam parte, al é m do que, n ã o

existia uma preocupaçã o em estabelecer qualquer tipo de comunica çã o com as pessoas que

estavam fora deste cí rculo. Os programas que eram desenvolvidos para o GNU/LINUX n ã o

tinham a preocupa çã o em atender o usu á rio final, isto é , o n ã o programador, o que, no iní cio,

29

fez com que a maioria de seus softwares n ã o tivessem ambiente gr á fico e funcionassem

apenas no modo texto. Tamb ém n ã o havia uma grande preocupa çã o em portar os softwares

para as diferentes arquiteturas de computador que existiam naquela é poca; a id é ia era que

cada um fizesse as customiza çõ es necess árias para sua arquitetura e as disponibilizassem na

Internet para os outros usu á rios. Talvez o tí tulo do e­mail postado por Linus Torvalds na lista

de discussõ es do Minix, um sistema operacional da é poca, para anunciar o lan ç amento da

vers ã o 0.02 do Linux seja um dos grandes exemplos do grau de especializaçã o do pú blico a

que se destinava este tipo de programa. Dizia ele: Você suspira pelos dias em que os homens

eram homens e escreviam seus próprios drivers de dispositivo?.(Torvalds – 2001 : 117)

Segundo Pierre Bourdieu:

pode­se medir o grau de autonomia de um campo de produção erudita

com base no poder que dispõe para definir as normas da sua produção, os

critérios

de

avaliação

de

seus

produtos

e,

portanto

para

retraduzir

e

reinterpretar todas as determinações externas de acordo com seus princípios de

funcionamento (BOURDIEU – 2004 : 106),

E foi dessa forma que passou a agir o Movimento de Software Livre. Esse processo de

autonomiza çã o do movimento aconteceu atrelado à forma çã o de um grupo de intelectuais e

hackers, cada vez mais inclinados a levar em considera çã o apenas os quesitos té cnicos e as

regras internas do Movimento de Software Livre em suas tomadas de decis ã o e cada vez

mais propensos a libertar sua produ çã o intelectual das regras mercadol ógicas ditadas pela

indú stria do software da é poca.

Os desenvolvedores ligados ao Movimento de Software Livre se organizam em torno

de projetos, quase sempre trabalhando como volunt á rios durante seu tempo livre. À primeira

vista, a auto­organiza çã o do movimento pode parecer um tanto quanto ca ó tica, j á que cada

desenvolvedor se junta ao projeto com o qual tem maior afinidade, o que faz com que alguns

centrem esfor ç os no kernel do sistema operacional, isto é , no Linux, e outros dividam­se

30

entre os milhares de subprojetos do projeto GNU, desenvolvendo e aperfei ç oando as outras

partes do sistema operacional e os aplicativos que rodam sobre ele, al ém de outros projetos

que n ã o est ã o dentro do escopo do sistema GNU, mas que est ã o sobre alguma licen ç a de uso

que o torne um software livre.

Mas como funciona essa engrenagem que agrega milhares de colaboradores ao redor

do mundo, sem que haja uma estrutura central organizando o trabalho?

Pois bem, para cada programa, temos um mantenedor que, em geral, é a pessoa que

deu iní cio ao trabalho e que publicou pela primeira vez seu c ó digo fonte e a documenta çã o

inicial do software. Abaixo do mantenedor ou mantenedores, est ã o os desenvolvedores que se

agregam ao projeto de acordo com seu grau de interesse e conhecimento.

Para que possamos entender melhor esse mecanismo, tomemos como exemplo um

projeto fict í cio de um novo editor de textos, a pessoa ou o grupo de pessoas que iniciar o

projeto torna­se automaticamente seu mantenedor. Para disponibillz á ­lo para a comunidade e

agregar mais desenvolvedores a sua volta, os mantenedores devem disponibilizar a primeira

vers ã o do software na Internet, juntamente com seu c ó digo fonte e com a documenta çã o

inicial que deve conter as informa çõ es detalhadas de como a primeira vers ã o foi feita, qual o

objetivo final do software e quais funcionalidades ele pretende ter. O ato de disponibilizar o

software na Internet pode ser feito por meio de um site pr óprio do projeto, em um site que

agregue v á rios projetos, a exemplo do www.sourceforce.org ou em ambos, como é mais

comum.

Depois que o software foi publicado, desenvolvedores que t êm interesse em produzir

um editor de texto com as mesmas funcionalidades e objetivos que o editor do nosso exemplo

ir ã o se agregar ao projeto, baixando o programa da Internet, juntamente com a documenta çã o

e o c ó digo fonte. Durante seu tempo livre, esses programadores ir ã o realizar modifica çõ es e

acré scimos ao c ó digo fonte original, que ser ã o enviadas ao mantenedor do projeto, cuja

fun ção ser á analisar as modifica çõ es, corre çõ es e acr é scimos e julgar se elas s ã o pertinentes

31

ao projeto. Caso essas altera çõ es sejam consideradas úteis, ser ã o integradas à pró xima vers ã o

do software que for disponibilizada aos usu ários, e os nomes dos programadores que

contribuí ram poder ã o ser colocados na lista de autores do programa, em uma parte espec í fica

do c ó digo fonte.

No caso das modificaçõ es que n ã o s ã o integradas ao projeto, elas podem seguir tr ê s

caminhos. O primeiro é serem completamente esquecidas, a segunda op çã o é que elas sejam

utilizadas apenas pelo programador, ou grupo de programadores que as desenvolveram, o que

é muito comum. O terceiro caso s ó costuma acontecer em projetos de grande envergadura no

qual as modifica çõ es que s ã o rejeitadas poderiam levar o projeto para um outro lado, que n ã o

o de seu objetivo inicial, isto é , modifica çõ es que poderiam redefinir o escopo do projeto;

nesses casos s ão criados forks ou divisõ es do projeto. Voltemos ao nosso exemplo do editor

de textos. Digamos que o projeto inicial seja o de criar um editor do tipo bloco de notas, que

ir á trabalhar unicamente com texto puro, isto é , arquivos do tipo “.txt” e ele receba uma

contribui çã o que pretende incluir a possibilidade de se trabalhar com tabelas dentro do

programa, e que esta modificaçã o acarrete na cria çã o de uma nova extens ã o para os arquivos

gerados dentro do nosso software, e que essa extens ã o “.xyz” s ó poder á ser manipulada

dentro do nosso editor de textos. Caso o mantenedor julgue a contribui çã o desnecess á ria,

poderá simplesmente ignor á ­la. No entanto, os autores poderã o gerar um fork do projeto, que

utilizar á todo o desenvolvimento do editor original, acrescentando as altera çõ es que

permitem o uso de tabelas. O fork seguir á o mesmo processo de divulga çã o na internet e em

seu c ódigo fonte, dever á constar que ele consiste em um projeto gerado a partir de um fork do

editor original, juntamente com os nomes dos autores que haviam contribu í do para o

programa original at é a data da divis ã o.

Quando acontece um fork, o que ir á definir qual dos dois projetos ter á mais sucesso,

ser á o grau de distin çã o dos mantenedores dentro do campo hacker e as caracter ísticas

t é cnicas dos projetos. A no çã o de campo representa para Bourdieu(2004) um espa ç o social

de domina çã o e de conflitos. Cada campo tem uma certa autonomia e possui suas pr ó prias

32

regras de organiza çã o e de hierarquia social. Como veremos adiante, o campo hacker é onde

o conhecimento colaborativo convive com a competitividade e a luta pela legitimidade

tecnol ógica de seus membros, que buscam, cada vez mais, alcan ç ar distin çõ es culturalmente

pertinentes dentro do campo, pela beleza de seus c ó digos.

Assim como o campo da arte, o campo hacker tamb ém est á marcado pela dial é tica do

refinamento, que segundo Bourdieu, “ é o princ í pio do esfor ç o que os artistas desenvolvem a

fim de explorar e esgotar todas as possibilidades t é cnicas e est é ticas de sua arte, em meio a

uma pesquisa semi­experimental de renova çã o” (Boudieu – 2004:111). Dessa forma, o

hacker tenta se afastar do programador de computadores convencional e se firmar como

aquele que det é m o conhecimento do fazer elegante.

Como foi dito anteriormente, caso o mantenedor de um

software receba uma

contribui çã o que n ã o julgue pertinente ao escopo do projeto, pode simplesmente ignorar

aquela contribui çã o. No entanto, é importante frisar que muitas contribui çõ es s ão ignoradas

por terem um c ó digo considerado “sujo”, isto é , que percorrem caminhos muito longos para

solucionar problemas muito pequenos e tornam o programa muito pesado, exigindo, assim,

maior esfor ç o do hardware. O que o mantenedor deve fazer é julgar a rela çã o custo/benef í cio

entre a implementa çã o de uma solu çã o de c ó digo sujo e a manuten çã o de um defeito do

programa. Uma das coisas que

mais se preza dentro do campo hacker é justamente esse

“fazer elegante”, isto é, a resolu çã o de problemas complicados por meio de solu çõ es simples.

Em uma palestra em S ã o Paulo, em 2004, organizada pela empresa 4linux, Jonh Mad Dog,

da Linux International, tentou resumir o fazer elegante com a seguinte frase: “Ao inv é s de

gastar milh õ es para desenvolver uma caneta

capaz de escrever em gravidade zero, quando

estiver nessas condi çõ es, o hacker usar á um l á pis.”, ou seja, um c ó digo elegante n ã o é um

c ó digo rebuscado e sim, um c ó digo direto e eficiente.

Essa busca pela “beleza dos c ó digos” faz muitas vezes com que o campo passe a

ignorar as demandas externas a ele, como as dos usu ários finais e do mercado. Na pr á tica, o

que acaba acontecendo é que por mais que existam press õ es por parte dos usu á rios, ou das

33

empresas que se utilizam comercialmente de um software livre, as novas vers õ es com as

correçõ es de possíveis problemas s ã o lan ç adas de acordo com o ritmo de desenvolvimento de

cada projeto e seguindo as regras de funcionamento da comunidade de software livre. No

entanto, é importante frisar que o ato de n ã o obedecer ao ritmo ditado pelo mercado para o

lan ç amento de novas vers õ es, nem sempre pode ser interpretado como lentid ã o na produ çã o

da comunidade, uma vez que a maioria dos softwares livres recebem atualizaçõ es em um

ritmo muito maior dos que seus similares propriet á rios.

A explicaçã o para o ritmo acelerado de atualizaçã o da comunidade vai al é m do n úmero

de desenvolvedores e programadores envolvidos nos projetos, pois, quando uma empresa

lan ç a um software propriet ário que é vendido, quase sempre a um custo relativamente alto,

ela espera em m é dia um ano at é lan ç ar uma nova vers ã o, isso porque se é lan ç ada a vers ã o

1.0 de um programa e dois ou tr ê s meses depois é lan ç ada a vers ã o 2.0, os compradores da

vers ã o 1.0 se sentir ã o lesados, por serem obrigados a pagar em um espa ç o t ã o curto de

tempo, para manter seus computadores atualizados, à medida que, os softwares livres podem