O FIM DA INTERNET ?
liberdade da rede corre perigo
A internet como nós conhecemos corre risco de morte. Em um futuro não muito distante é possível que nossos filhos chamem de "internet" algo bem diferente daquilo que hoje conhecemos por este nome. E não se trata de uma afirmação alarmista, mas da simples análise de uma série de fatos que, quando somados, ajudam a constituir uma perspectiva sombria de futuro para a internet.
Mas, antes de falarmos destas ameaças, é preciso deixar claro algumas premissas.
Em primeiro lugar, não é verdade que a internet seja uma rede não regulada ou anárquica, como gostariam alguns. Os trabalhos do professor Lawrence Lessig, por exemplo, demonstram que a arquitetura da internet (a interação de diferentes hardwares e softwares) determina o limite de possibilidades da Rede, definindo o que pode e (principalmente) o que não pode ser feito em seu interior. Como tais definições são de ordem "técnica", elas passam ao largo do debate democrático, sendo definidas em fóruns igualmente "técnicos". Na prática, funcionam como leis, que definem o comportamento no interior da Rede. [Justamente por isso, as pesquisas da chamada teoria ator-rede, especialmente de seu nome mais importante (Bruno Latour), defendem a necessidade da superação dos limites entre "política" e "ciência".]
O corolário do parágrafo anterior é que não cabe discutir se a internet deve ou não ser regulada. Ela já é regulada! Cabe, isso sim, discutir qual a melhor forma de regulação, que garanta a democracia no interior da Rede.
Em segundo lugar, vale lembrar que a internet funciona em camadas e que para cada camada existe um regime diferente de regulação. Assim, temos a infra-estrutura das redes de transmissão de dados (físicas ou wireless), os protocolos de comunicação (como o TCP/IP), o endereçamento dos usuários (organizado a partir de 13 servidores-raiz, dos quais 10 estão nos Estados Unidos) e, por fim, o conteúdo que circula no interior da internet.
Pelo menos três mudanças estão ocorrendo neste momento, em diferentes camadas da internet, que podem ter como conseqüência a drástica diminuição do grau de liberdade no interior da Rede.
Pedágio na internet
A internet surgiu sem despertar muita atenção (e simpatia) das empresas de telecomunicações, usando justamente as redes destas para fazer trafegar seus conteúdos. Agora, contudo, quando a internet se torna o novo paradigma das comunicações e outras mídias já começam a incorporar a sua "linguagem" (o Internet Protocol – IP), as donas das redes (operadoras de telefonia fixa e de TV a cabo) perceberam que elas podem auferir enormes vantagens com o controle da infra-estrutura da internet.
Foi assim que essas empresas exerceram um poderoso lobby e conseguiram que a Federal Communication Comission (FCC), o órgão regulador norte-americano, revisse o princípio histórico da neutralidade das redes. Agora, o Congresso dos Estados Unidos se vê diante da necessidade de manter, ou não, a decisão da FCC.
Com o fim da neutralidade, os donos da infra-estrutura poderão estabelecer diferenças no tratamento dado aos conteúdos que circulam na Rede. Assim, se uma empresa pagou mais, seus conteúdos terão um tratamento diferenciado, circulando em vias expressas de maior velocidade. Aqueles que não puderem pagar terão que se contentar em ter websites que demoram uma enormidade para abrir ou em emitir e-mails que demorarão mais do que outros para chegar aos seus destinatários.
Sem ferir a liberdade de expressão, esta medida pode ser um duríssimo golpe na diversidade cultural e política da internet. Serviços públicos e conteúdos que tenham origem na sociedade civil serão discriminados em detrimento das grandes corporações que puderem pagar pela circulação privilegiada.
Eu sei quem você é e o que faz
Muito de nossas vidas está espalhado pela internet. Os sites que visitamos, as compras que fazemos, nossas buscas no Google, nossas comunidades e amigos no Orkut, os e-mails que enviamos e recebemos, os arquivos que baixamos etc.
Agora, imagine que isso tudo possa ser reunido e analisado. Não apenas por governos totalitários, mas também por empresas ávidas por conhecer o padrão de consumo de cada indivíduo a fim de lhe suprir com uma produção por demanda.
Tudo isso é possível, em primeiro lugar, pela inexistência de regras internacionais. Fica valendo a regra nacional do país onde a empresa está estabelecida e os servidores podem ser mudados de acordo com o interesse comercial em jogo. Por exemplo, a Google se recusa a prestar contas ao Ministério Público Federal sobre páginas de pedofilia no Orkut, alegando que os servidores estão nos Estados Unidos e somente lá o assunto poderia ser levado à justiça [ver "Google acoberta crimes no Orkut", de Luiz Weis]. Mas a mesma empresa instalou servidores na China a fim de permitir que o governo daquele país tenha acesso às informações dos usuários dos diversos serviços prestados pela Google. No caso brasileiro a pedofilia não pode ser identificada, mas na China os dissidentes que usam a internet correm risco.
Ao mesmo tempo, o governo norte-americano possui duas importantes ferramentas para ter acesso ao conteúdo que circula pela internet: o sistema de espionagem Echelon (operado pela National Security Agency – NSA) e o software Carnivore (de propriedade do FBI).
Após os atentados de 11 de setembro de 2001, e com a aprovação do "Patriot Act", as obrigações legais para o uso destas ferramentas ficaram muito mais tênues e podem, inclusive, ser usadas sem que o sujeito espionado jamais tome conhecimento.
No Brasil, o senador Eduardo Azeredo (PSDB-MG) está preparando um substitutivo (ao PLS 76/2000, PLS 137/2000 e PLC 89/2003) que considera como "identificação do usuário" não apenas sua senha, login e endereço IP, mas também "nome completo, data de nascimento, endereço completo e todos os demais dados que sejam requeridos". O projeto determina que todo aquele que facultar o acesso à internet terá que arquivar por cinco anos "dados de conexões e comunicações realizadas por seus equipamentos, aptas a identificação do usuário, endereço eletrônico de origem e destino no transporte do registro de dados e informações, data e horário de início e término da conexão, incluindo protocolo de internet ou mecanismo de identificação equivalente". Para quem descumprir, o substitutivo prevê pena de dois a seis meses e multa.
Ou seja, cibercafés, telecentros comunitários e universidades, por exemplo, terão que manter por cinco anos o endereço, data de nascimento, nome completo, número de CPF e os sites visitados por cada usuário.
Internet apenas para ler
Diversos teóricos têm chamado a atenção para o fato de que a internet pode estar ajudando a estabelecer uma nova economia, não baseada na lógica da mercadoria. É a chamada "economia do presente", onde vale o escambo e a troca, de acordo com a necessidade de cada um, e sem envolver compra e venda.
Esta idéia apavora os diretores dos estúdios de Hollywood e as grandes gravadoras acostumadas a viver da principal fatia do copyright (em detrimento do criador da obra). Por isso, já em 1998, os Estados Unidos aprovaram o "Digital Millenium Copyright Act" e fizeram a Organização Mundial de Propriedade Intelectual (OMPI) aprovar o TRIPS (Agreement on Trade-Related Aspects of Intellectual Property Rights). Graças a essas duas legislações, hoje vivemos em um mundo onde o grito do Tarzan, a canção Happy Birthday ("Parabéns pra você...") e o tom amarelo do post-it são propriedade intelectual e seu uso necessita de autorização e pagamento.
Mas, não satisfeitos, os Estados Unidos pressionam a OMPI para incluir no interior do Broadcasting Treaty – um acordo que, por si só, já demandaria toda a nossa atenção, pois, se aprovado, permitirá que as emissoras de TV proíbam a gravação de seus programas, inclusive para uso privado e doméstico – a criminalização internacional do webcasting, tornando crime a troca privada e sem fins lucrativos de arquivos protegidos pelo direito autoral.
Com isso, estaremos criando aquilo que Lawrence Lessig chama de uma internet "apenas para ler". Onde todo o conhecimento produzido possua um dono interessado em cobrar pelo seu uso. O que tornará o produtor de novos conteúdos pecuniariamente devedor do conhecimento que lhe precedeu, já que é impossível criar algo a partir do nada.
Ainda dá tempo
Este cenário sombrio está em construção. Os atores interessados em vê-lo funcionando plenamente são governos de grandes potências e principais transnacionais do setor. Eles sabem que, com os processos de digitalização e convergência, não está em jogo apenas o futuro da internet, mas o do conjunto das mídias.
Apesar disso, existe um forte movimento internacional de resistência, que procura preservar (e até mesmo ampliar) a liberdade de expressão nas novas tecnologias de comunicação.
No entanto, é fundamental que este debate seja feito também no Brasil, onde parece que a sociedade civil ainda não acordou para os riscos que corremos.
O importante é que ainda dá tempo e que a luta não acabou.
A internet como nós conhecemos corre risco de morte. Em um futuro não muito distante é possível que nossos filhos chamem de "internet" algo bem diferente daquilo que hoje conhecemos por este nome. E não se trata de uma afirmação alarmista, mas da simples análise de uma série de fatos que, quando somados, ajudam a constituir uma perspectiva sombria de futuro para a internet.
Mas, antes de falarmos destas ameaças, é preciso deixar claro algumas premissas.
Em primeiro lugar, não é verdade que a internet seja uma rede não regulada ou anárquica, como gostariam alguns. Os trabalhos do professor Lawrence Lessig, por exemplo, demonstram que a arquitetura da internet (a interação de diferentes hardwares e softwares) determina o limite de possibilidades da Rede, definindo o que pode e (principalmente) o que não pode ser feito em seu interior. Como tais definições são de ordem "técnica", elas passam ao largo do debate democrático, sendo definidas em fóruns igualmente "técnicos". Na prática, funcionam como leis, que definem o comportamento no interior da Rede. [Justamente por isso, as pesquisas da chamada teoria ator-rede, especialmente de seu nome mais importante (Bruno Latour), defendem a necessidade da superação dos limites entre "política" e "ciência".]
O corolário do parágrafo anterior é que não cabe discutir se a internet deve ou não ser regulada. Ela já é regulada! Cabe, isso sim, discutir qual a melhor forma de regulação, que garanta a democracia no interior da Rede.
Em segundo lugar, vale lembrar que a internet funciona em camadas e que para cada camada existe um regime diferente de regulação. Assim, temos a infra-estrutura das redes de transmissão de dados (físicas ou wireless), os protocolos de comunicação (como o TCP/IP), o endereçamento dos usuários (organizado a partir de 13 servidores-raiz, dos quais 10 estão nos Estados Unidos) e, por fim, o conteúdo que circula no interior da internet.
Pelo menos três mudanças estão ocorrendo neste momento, em diferentes camadas da internet, que podem ter como conseqüência a drástica diminuição do grau de liberdade no interior da Rede.
Pedágio na internet
A internet surgiu sem despertar muita atenção (e simpatia) das empresas de telecomunicações, usando justamente as redes destas para fazer trafegar seus conteúdos. Agora, contudo, quando a internet se torna o novo paradigma das comunicações e outras mídias já começam a incorporar a sua "linguagem" (o Internet Protocol – IP), as donas das redes (operadoras de telefonia fixa e de TV a cabo) perceberam que elas podem auferir enormes vantagens com o controle da infra-estrutura da internet.
Foi assim que essas empresas exerceram um poderoso lobby e conseguiram que a Federal Communication Comission (FCC), o órgão regulador norte-americano, revisse o princípio histórico da neutralidade das redes. Agora, o Congresso dos Estados Unidos se vê diante da necessidade de manter, ou não, a decisão da FCC.
Com o fim da neutralidade, os donos da infra-estrutura poderão estabelecer diferenças no tratamento dado aos conteúdos que circulam na Rede. Assim, se uma empresa pagou mais, seus conteúdos terão um tratamento diferenciado, circulando em vias expressas de maior velocidade. Aqueles que não puderem pagar terão que se contentar em ter websites que demoram uma enormidade para abrir ou em emitir e-mails que demorarão mais do que outros para chegar aos seus destinatários.
Sem ferir a liberdade de expressão, esta medida pode ser um duríssimo golpe na diversidade cultural e política da internet. Serviços públicos e conteúdos que tenham origem na sociedade civil serão discriminados em detrimento das grandes corporações que puderem pagar pela circulação privilegiada.
Eu sei quem você é e o que faz
Muito de nossas vidas está espalhado pela internet. Os sites que visitamos, as compras que fazemos, nossas buscas no Google, nossas comunidades e amigos no Orkut, os e-mails que enviamos e recebemos, os arquivos que baixamos etc.
Agora, imagine que isso tudo possa ser reunido e analisado. Não apenas por governos totalitários, mas também por empresas ávidas por conhecer o padrão de consumo de cada indivíduo a fim de lhe suprir com uma produção por demanda.
Tudo isso é possível, em primeiro lugar, pela inexistência de regras internacionais. Fica valendo a regra nacional do país onde a empresa está estabelecida e os servidores podem ser mudados de acordo com o interesse comercial em jogo. Por exemplo, a Google se recusa a prestar contas ao Ministério Público Federal sobre páginas de pedofilia no Orkut, alegando que os servidores estão nos Estados Unidos e somente lá o assunto poderia ser levado à justiça [ver "Google acoberta crimes no Orkut", de Luiz Weis]. Mas a mesma empresa instalou servidores na China a fim de permitir que o governo daquele país tenha acesso às informações dos usuários dos diversos serviços prestados pela Google. No caso brasileiro a pedofilia não pode ser identificada, mas na China os dissidentes que usam a internet correm risco.
Ao mesmo tempo, o governo norte-americano possui duas importantes ferramentas para ter acesso ao conteúdo que circula pela internet: o sistema de espionagem Echelon (operado pela National Security Agency – NSA) e o software Carnivore (de propriedade do FBI).
Após os atentados de 11 de setembro de 2001, e com a aprovação do "Patriot Act", as obrigações legais para o uso destas ferramentas ficaram muito mais tênues e podem, inclusive, ser usadas sem que o sujeito espionado jamais tome conhecimento.
No Brasil, o senador Eduardo Azeredo (PSDB-MG) está preparando um substitutivo (ao PLS 76/2000, PLS 137/2000 e PLC 89/2003) que considera como "identificação do usuário" não apenas sua senha, login e endereço IP, mas também "nome completo, data de nascimento, endereço completo e todos os demais dados que sejam requeridos". O projeto determina que todo aquele que facultar o acesso à internet terá que arquivar por cinco anos "dados de conexões e comunicações realizadas por seus equipamentos, aptas a identificação do usuário, endereço eletrônico de origem e destino no transporte do registro de dados e informações, data e horário de início e término da conexão, incluindo protocolo de internet ou mecanismo de identificação equivalente". Para quem descumprir, o substitutivo prevê pena de dois a seis meses e multa.
Ou seja, cibercafés, telecentros comunitários e universidades, por exemplo, terão que manter por cinco anos o endereço, data de nascimento, nome completo, número de CPF e os sites visitados por cada usuário.
Internet apenas para ler
Diversos teóricos têm chamado a atenção para o fato de que a internet pode estar ajudando a estabelecer uma nova economia, não baseada na lógica da mercadoria. É a chamada "economia do presente", onde vale o escambo e a troca, de acordo com a necessidade de cada um, e sem envolver compra e venda.
Esta idéia apavora os diretores dos estúdios de Hollywood e as grandes gravadoras acostumadas a viver da principal fatia do copyright (em detrimento do criador da obra). Por isso, já em 1998, os Estados Unidos aprovaram o "Digital Millenium Copyright Act" e fizeram a Organização Mundial de Propriedade Intelectual (OMPI) aprovar o TRIPS (Agreement on Trade-Related Aspects of Intellectual Property Rights). Graças a essas duas legislações, hoje vivemos em um mundo onde o grito do Tarzan, a canção Happy Birthday ("Parabéns pra você...") e o tom amarelo do post-it são propriedade intelectual e seu uso necessita de autorização e pagamento.
Mas, não satisfeitos, os Estados Unidos pressionam a OMPI para incluir no interior do Broadcasting Treaty – um acordo que, por si só, já demandaria toda a nossa atenção, pois, se aprovado, permitirá que as emissoras de TV proíbam a gravação de seus programas, inclusive para uso privado e doméstico – a criminalização internacional do webcasting, tornando crime a troca privada e sem fins lucrativos de arquivos protegidos pelo direito autoral.
Com isso, estaremos criando aquilo que Lawrence Lessig chama de uma internet "apenas para ler". Onde todo o conhecimento produzido possua um dono interessado em cobrar pelo seu uso. O que tornará o produtor de novos conteúdos pecuniariamente devedor do conhecimento que lhe precedeu, já que é impossível criar algo a partir do nada.
Ainda dá tempo
Este cenário sombrio está em construção. Os atores interessados em vê-lo funcionando plenamente são governos de grandes potências e principais transnacionais do setor. Eles sabem que, com os processos de digitalização e convergência, não está em jogo apenas o futuro da internet, mas o do conjunto das mídias.
Apesar disso, existe um forte movimento internacional de resistência, que procura preservar (e até mesmo ampliar) a liberdade de expressão nas novas tecnologias de comunicação.
No entanto, é fundamental que este debate seja feito também no Brasil, onde parece que a sociedade civil ainda não acordou para os riscos que corremos.
O importante é que ainda dá tempo e que a luta não acabou.

I
O poeta Rainer Maria Rilke define, no poema "O Cão", com poucas palavras, o que considera o essencial da condição canina: "nem excluído nem incluído".
É assim que Roger Grenier, autor do livro Da dificuldade de ser cão inicia o capítulo "Um Olhar de Recriminação" em que trata das relações entre o poeta e esses ternos (quando ternos) animais domésticos a quem reprova, sobretudo, o fato de que suas vidas não durem tanto quanto a dos humanos.
O que dizer, então, deste outro animalzinho social - o homem digital - criado pelo aparato tecnológico da chamada sociedade da informação que, ao contrário do cão do poeta, é "excluído ou incluído", sem termo médio possível?
De fato, uma das obsessões programáticas dos teóricos idealizadores da sociedade da informação é o firme desígnio da inclusão digital das populações do planeta, pela universalização do acesso ao uso dos computadores e às facilidades eletrônicas que as suas redes mundiais proporcionam.
É o que se pode ler, por exemplo, às pp. 9 e 10 do documento Ciência e Tecnologia para Construção da Sociedade da Informação, de 1999, do Conselho Nacional de Ciência e Tecnologia (CCT), da Presidência da República quando, a propósito do paradigma da sociedade da informação, traz anotado: "Diante da incerteza social sobre a dimensão e o ritmo de inclusão dos brasileiros na nova consciência psicossocial que a Sociedade da Informação acarreta, a tarefa do governo brasileiro é a de criar condições para que haja crescente confiança pública nesse novo contexto social. Isso está, por exemplo, diretamente relacionado com os referenciais de proteção à privacidade individual, assim como de segurança nos fluxos de informações comerciais, financeiras, científicas e tecnológicas, dentre outras, e no armazenamento dessas informações por indivíduos e organizações de natureza pública e privada".
No Livro Verde da Sociedade da Informação no Brasil, publicado em setembro de 2000, os números da inclusão social no "letrismo" digital não eram muito instigantes, embora se pudesse ver um quadro de evolução dos serviços públicos e privados com ofertas de facilidades ao cidadão antes desconhecidas.
De fato, conforme pude escrever no artigo Informação e Simulacro que abre a edição nº 19, de março da 2001, da revista ComCiência, dedicada ao tema, o Brasil, mesmo que situado entre os 12 países mais bem posicionados, tem apenas 5% de sua população como usuária dos serviços de rede, com um grande déficit de meios físicos para acesso à Internet, poucos conteúdos em português (85% deles são em inglês), um número muito pequeno de telecentros para uso público e metas ainda tímidas realizadas pelos projetos governamentais de informatização das escolas públicas, considerando-se que menos de 4% das 165 mil escolas de ensino fundamental estavam, então, conectadas.
II
Mudou muito este quadro, no transcurso do último ano?
Nem tanto, embora os serviços disponíveis para uma pequena parcela da população continuem a melhorar, oferecendo facilidades e presteza, pelas quais, em geral, os usuários, é claro, sempre pagam.
Deixando de lado a relação, que não é pequena, dessas conquistas que pude também mencionar no artigo acima citado, o fato é que a "rede das redes", mesmo com acesso absoluto limitado - variando o percentual da população digitalmente incluída proporcionalmente à riqueza de cada país - acabou, pelos limites físicos, lógicos e tecnológicos dos sistemas em funcionamento e, pelo relativo grande afluxo de seus utilizadores, chegando a limitações incompatíveis com a ideologia do igualitarismo informacional propugnado pela Internet no processo de crescimento e expansão.
Como constatou a revista Scientific American, em reportagem especial de março de 1997, "a Internet, como todo mundo que tem um modem sabe, foi vítima de seu próprio sucesso".
Nascida como um sistema de comunicações para usos estratégicos do governo, ou seja, para permitir estratégias de comunicação alternativas às que se conheciam até o final dos anos 1960 e, num segundo momento, voltada ao ensino e à pesquisa nos EUA, onde nasceu, a Internet, alcançando interesses comerciais mundo afora, universalizou suas finalidades e utilizações mas restringiu sua capacidade como instrumento de ensino e pesquisa e selecionou, entre o grande público, os beneficiários de seu ambicioso e retórico programa de inclusão social informatizada.
Em 1994, os usuários comerciais da Internet já eram o dobro dos usuários acadêmicos e, no ano seguinte, a National Science Foundation decidiu desativar o backbone NSFNCT, não sem antes tomar medidas para garantir a continuidade da Internet. Entre essas medidas, aquela que, em parceria com a empresa MCI, possibilitou, por cinco anos, um investimento de US$50 milhões para que a MCI operasse um novo backbone experimental de alta velocidade, o UBNS ( "Very High Speed Backbone Network Service").
A insatisfação da comunidade de ensino e pesquisa com os serviços da Internet, então crescente, faz com que, em 1996, duas iniciativas marquem o surgimento de uma nova etapa no desenvolvimento das tecnologias de informação e das tecnologias de rede: a Internet 2 e a Next Generation Internet (NGI), constituindo consórcios de várias universidades e empresas do setor e anunciando poderosos investimentos governamentais com vistas a aumentar a capacidade inteligente do sistema, não só do ponto de vista físico, mas sobretudo lógico e tecnológico, ou seja, implementar e potencializar a sua racionalidade informacional e comunicativa.
Para permitir o uso da Internet para fins de ensino e pesquisa era preciso acelerar e fomentar a pesquisa em Internet e em novas tecnologias de informação e comunicação de um modo geral.
Essa circularidade das relações entre a pesquisa em informática e a informatização da pesquisa, no sentido amplo e no sentido específico dessa área de conhecimento foi universalmente representada no chamado modelo da espiral tecnológica, criado pelo professor Ivan Moura Campos para representar, como se pode ver na figura abaixo, o movimento da evolução da Internet, que nascendo como um programa de pesquisa e desenvolvimento (P&D), expande-se para o uso comercial e é retomada, agora já num ponto tecnologicamente avançado, para um nosso ciclo de P&D. É neste ponto que nasce a Internet 2.
Modelo da espiral tecnológica de Campos
III
O governo brasileiro, tendo aderido ao programa da Internet 2, lançou, em 1999, através do Conselho e Ciência e Tecnologia (CCT), da Presidência da República, o documento Ciência e Tecnologia para a Construção da Sociedade da Informação, a que acima nos referimos e, em setembro de 2000, o Livro Verde da Sociedade da Informação, também aqui referido, engajando-se no esforço de cumprir científica, tecnológica e socialmente, no país, as grandes tarefas propugnadas pelo programa americano.
A RNP2, em âmbito nacional e a Advanced ANSP (Advanced Academic Network São Paulo), mantida pela FAPESP, no estado de São Paulo, conduzem as iniciativas de pesquisa e desenvolvimento contidas no projeto.
Passos importantes têm sido dados, embora do investimento ambicioso de R$ 3,4 bilhões entre 2000 e 2004, num dispêndio anual de R$ 850 milhões anunciados pelo governo federal, não se verão mais do que R$ 69,818 milhões efetivamente aplicados.
O caso da rede ANSP, porque ligada à FAPESP e porque objeto programático das ações sempre bem planejadas, estruturadas e operacionalizadas pela Fundação, tem mostrado avanços mais consistentes e sistemáticos no âmbito das finalidades de ensino e pesquisa próprias da Internet.
De qualquer modo, o "abismo digital" que separa os que têm e os que não têm acesso à Internet continua grande, profundo, mas sondável, mais ou menos na linha do artigo do jornalista Robert J. Samnelson, do Washinton Post, publicado no Brasil pelo O Estado de S. Paulo, de 24/03/2002, p. B6, do Caderno de Economia, para quem não há relação mecânica entre as taxas de desemprego e o analfabetismo tecnológico das populações.
Claro que o domínio das tecnologias de informação e comunicação constituem, cada vez mais, um requisito indispensável na formação dos jovens para sua habilitação profissional num mercado extremamente competitivo e transnacionalizado. O mesmo ocorre com a necessidade de seu domínio da expressão lingüística em sua língua materna e em pelo menos duas grandes línguas "francas" internacionais, como é hoje o caso do inglês e do espanhol. Se tiver o domínio das matemáticas estará, então, preparado para concorrer nas primeiras fileiras dos que disputam seu lugar ao sol.
Mas a grande multidão dos que hoje não tem emprego e padecem da anorexia que tomou conta dos programas sociais dos governos pelo mundo se deve, de fato, à velha dama indigna da má distribuição da riqueza e da injustiça social. Sem o compromisso dos governos com a retomada do Estado de Bem Estar Social, nem a plena, plana e generalizada educação informacional trará conforto à sociedade, nem a sociedade, por mais incluída que esteja, virtualmente, na democracia digital da informação, deixará de permanecer, realmente, excluída do acesso, não só aos bens de consumo, mas às condições de desenvolvimento cultural humanístico que deve continuar a ser a utopia e o traço distintivo do homem em sua humanidade.
IV
Bem, mas de que é feita a humanidade do homem?
De muitos predicados. Bons e maus. Nem bons nem maus, a exemplo de nosso herói Macunaíma, sem nenhum caráter.
No caso da humanidade digital do homem tecnológico poder-se-ia dizer, para contrapô-la - uma das formas lógicas da definição - ao cachorrinho poético de Rilke, que o que a define é a contrariedade entre a inclusão e a exclusão sociais, enquanto que a "caninidade" do cão seria, nesse triângulo de contrários - para usar as categorias do pensamento formuladas pelo lógico francês Robert Blanché -, o termo médio da oposição: nem incluído nem excluído, da mesma forma que indiferente, ou facultativo estão para o obrigatório e o proibido, ou o amoral, para o moral e o imoral, ou ainda o amarelo para o verde e o vermelho, nos sinais de trânsito, significando "nem pare, nem siga".
Desse modo, o cão, que jamais virá a ser socialmente digital, não sendo passível de nenhuma espécie de alfabetização, muito menos a tecnológica, além da importância que sempre teve na história afetiva de nossas vidas, constitui-se também num ícone de sábio ceticismo para a definição da nova humanidade do velho homem, ou da velha humanidade do novo homem e de todas as outras combinações possíveis com que gostosamente vamo-nos iludindo de esperanças.
A Microsoft precisa de um Papa de Código
A Microsoft precisa retroceder e bifurcar novamente o desenvolvimento de seu OS a partir do Windows 2000 Profissional ou mesmo do Windows NT 4.0. Depois, precisa encontrar um papa que possa entender o código principal. Eu explico.
Primeiro, os programadores têm que supor que o Windows 2000 Profissional é a melhor versão do sistema que já existiu. Há muitos motivos para essa suposição, um dos mais importantes é que você pode fazer várias instalações sem ter que ligar para a Microsoft e explicar o motivo. Também não é a versão mais visualmente atraente do Windows, e tem um certo apelo aos preguiçosos comedores de pizza que tendem a ser os fanáticos por programação. (Agora estou abaixado para evitar ser atingido por um pedaço de pizza voando.)
OK, deixando a brincadeira de lado, há um fenômeno no mercado conhecido como bifurcação (forking). E não se trata apenas de pizza. Trata-se de um código que vai em duas direções diferentes, às vezes, até três. Isso parece aparecer bastante no mundo open-source, onde não há um ditador determinando que algo não vá em direções diversas.
Bifurcação para cima. Uma bifurcação de versão geralmente acontece quando um grupo acha que outro grupo não passa de um bando de idiotas e afirma que a direção A é melhor que B. Então um grupo irá simplesmente partir para a direção A e dirá aos outros programadores que dêem o fora. Os outros programadores continuarão na direção B e podem ou não se sair melhor que os "rebeldes." Os rebeldes freqüentemente se saem melhor que pior, mas nem sempre. No geral, o processo é positivo, pois cria ação e planejamento competitivo. Acho que é por isso que a programação open-source tem tanto poder no fim de seu ciclo de desenvolvimento mas quase nenhum no começo. Isso é o oposto ao que vemos com software com desenvolvimento dirigido e código fechado. E também é o motivo pelo qual a Microsoft será finalmente acabada a não ser se descobrir um novo mecanismo de desenvolvimento de código fechadoum que não resulte em bagunça como o Vista.
Se a Microsoft não mudar, e nos anos seguintes produzir outro fiasco como o Vista, a empresa estará acabada. Há uma oportunidade embaixo de seus narizes agora. É a opção de ter alguém que diga para a equipe para voltar no tempo e bifurcar o Windows 2000 em uma versão semelhante ao que era antes que o Win XP aparecesse. Em outras palavras, apagar tudo que entrou no Win XP.
Apagar código e retroceder é muito difícil de aceitar, mas é a única maneira. Na verdade, no momento que o Vista começou mostrar problemas, a Microsoft deveria ter parado o desenvolvimento e retrocedido, de volta para o esquema Windows 2000XP.
A razão do Papa. É claro, nada disso é possível se o código não estiver bem documentado, e você percebe que o Windows tem documentação pela metade. Há anos tenho a certeza de que um dos motivos por que a Microsoft não quer revelar seu código à União Européia judicialmente (ou para qualquer outra pessoa) é porque o código tem tão pouca documentação e feita de modo tão preguiçoso que estaria sujeita ao ridículo extremo. Com certeza, a documentação provavelmente é assim.
Parte do problema é o que escuto há anos. A Microsoft não mantém na equipe ninguém que entenda como o Windows funciona. Então se tornou um spaghetti de código. É uma bagunçae funciona na base da gambiarra e do milagre.
Apenas os executivos da Microsoft podem ser culpados por isso, pois eles não têm um "Papa do Windows" que se esperaria que compreendesse o OS completamente e pudesse passar seus segredos para um sucessor que se tornaria o próximo Papa do Windows. Em vez disso, você tem um monte de caras que querem fazer isso ou aquilo e andam pela empresa como gerentes médios ou homens de idéias. Com o tempo, é o que me dizem, ninguém na empresa entende a natureza geral e a estrutura do Windows em si mesma. Assim, você tem uma confusão de programadores ambiciosos que querem todos serem chefes.
A chave para fazer com que minha idéia funcionasse seria glorificar e pagar milhões de dólares a um Papa de Código. Ele saberia tudo sobre o Windows e teria emprego vitalício.
Pode funcionar mesmo se houver uma equipe de Papas de três ou quatro que têm a palavra final nas decisões. Esse tipo de estrutura realmente funcionaria bem em situações complexas. O Linux tem um pequeno grupo de cardeais com um papaLinus Torvaldsentão o modelo realmente funciona.
A Microsoft precisa retroceder e bifurcar novamente o desenvolvimento de seu OS a partir do Windows 2000 Profissional ou mesmo do Windows NT 4.0. Depois, precisa encontrar um papa que possa entender o código principal. Eu explico.
Primeiro, os programadores têm que supor que o Windows 2000 Profissional é a melhor versão do sistema que já existiu. Há muitos motivos para essa suposição, um dos mais importantes é que você pode fazer várias instalações sem ter que ligar para a Microsoft e explicar o motivo. Também não é a versão mais visualmente atraente do Windows, e tem um certo apelo aos preguiçosos comedores de pizza que tendem a ser os fanáticos por programação. (Agora estou abaixado para evitar ser atingido por um pedaço de pizza voando.)
OK, deixando a brincadeira de lado, há um fenômeno no mercado conhecido como bifurcação (forking). E não se trata apenas de pizza. Trata-se de um código que vai em duas direções diferentes, às vezes, até três. Isso parece aparecer bastante no mundo open-source, onde não há um ditador determinando que algo não vá em direções diversas.
Bifurcação para cima. Uma bifurcação de versão geralmente acontece quando um grupo acha que outro grupo não passa de um bando de idiotas e afirma que a direção A é melhor que B. Então um grupo irá simplesmente partir para a direção A e dirá aos outros programadores que dêem o fora. Os outros programadores continuarão na direção B e podem ou não se sair melhor que os "rebeldes." Os rebeldes freqüentemente se saem melhor que pior, mas nem sempre. No geral, o processo é positivo, pois cria ação e planejamento competitivo. Acho que é por isso que a programação open-source tem tanto poder no fim de seu ciclo de desenvolvimento mas quase nenhum no começo. Isso é o oposto ao que vemos com software com desenvolvimento dirigido e código fechado. E também é o motivo pelo qual a Microsoft será finalmente acabada a não ser se descobrir um novo mecanismo de desenvolvimento de código fechadoum que não resulte em bagunça como o Vista.
Se a Microsoft não mudar, e nos anos seguintes produzir outro fiasco como o Vista, a empresa estará acabada. Há uma oportunidade embaixo de seus narizes agora. É a opção de ter alguém que diga para a equipe para voltar no tempo e bifurcar o Windows 2000 em uma versão semelhante ao que era antes que o Win XP aparecesse. Em outras palavras, apagar tudo que entrou no Win XP.
Apagar código e retroceder é muito difícil de aceitar, mas é a única maneira. Na verdade, no momento que o Vista começou mostrar problemas, a Microsoft deveria ter parado o desenvolvimento e retrocedido, de volta para o esquema Windows 2000XP.
A razão do Papa. É claro, nada disso é possível se o código não estiver bem documentado, e você percebe que o Windows tem documentação pela metade. Há anos tenho a certeza de que um dos motivos por que a Microsoft não quer revelar seu código à União Européia judicialmente (ou para qualquer outra pessoa) é porque o código tem tão pouca documentação e feita de modo tão preguiçoso que estaria sujeita ao ridículo extremo. Com certeza, a documentação provavelmente é assim.
Parte do problema é o que escuto há anos. A Microsoft não mantém na equipe ninguém que entenda como o Windows funciona. Então se tornou um spaghetti de código. É uma bagunçae funciona na base da gambiarra e do milagre.
Apenas os executivos da Microsoft podem ser culpados por isso, pois eles não têm um "Papa do Windows" que se esperaria que compreendesse o OS completamente e pudesse passar seus segredos para um sucessor que se tornaria o próximo Papa do Windows. Em vez disso, você tem um monte de caras que querem fazer isso ou aquilo e andam pela empresa como gerentes médios ou homens de idéias. Com o tempo, é o que me dizem, ninguém na empresa entende a natureza geral e a estrutura do Windows em si mesma. Assim, você tem uma confusão de programadores ambiciosos que querem todos serem chefes.
A chave para fazer com que minha idéia funcionasse seria glorificar e pagar milhões de dólares a um Papa de Código. Ele saberia tudo sobre o Windows e teria emprego vitalício.
Pode funcionar mesmo se houver uma equipe de Papas de três ou quatro que têm a palavra final nas decisões. Esse tipo de estrutura realmente funcionaria bem em situações complexas. O Linux tem um pequeno grupo de cardeais com um papaLinus Torvaldsentão o modelo realmente funciona.
0 comentários:
Postar um comentário