Singlosfera

Oriente-mais-Ocidente na fronteira da liberdade

Em concordância com a crença generalizada de que as tecnologias de comunicação digital ‘destroem a distância’, James C. Bennett cunhou o termo ‘Anglosfera’ para descrever a arena de proximidade cultural comparativamente sem fricção que liga as populações anglófonas dispersas no espaço. Sua contenção era de que as tendências de congregação exemplificadas pelo desenvolvimento da Internet continuariam a promover laços culturais, ao passo em que erodiriam a importância de vizinhanças espaciais. Na era da World Wide Web, a solidariedade cultural supera a solidariedade geográfica.

Embora esferas culturais alternativas – expressamente incluindo a Sinosfera – tenham sido mencionadas de passagem, elas não eram o foco do relato de Bennett. Sua atenção estava direcionada aos povos falantes de inglês, espalhados geograficamente, mas ainda assim unidos por linhas de entendimento comum que derivam de uma língua compartilhada, da lei comum inglesa e das tradições de governo limitado, de sociedades civis altamente desenvolvidas, do individualismo e de uma tolerância incomum à mudança social disruptiva. Ele previu tanto que esses pontos em comum se tornariam cada vez mais consequentes nos anos por vir, quanto que seu teor se provaria altamente adaptativo conforme a taxa de mudança social se acelerasse mundialmente.

A preocupação de Bennett com sistemas culturais de larga escala pode ser vista como parte de uma tendência intelectual, comparável em aspectos significativos à influente tese do ‘Choque of Civilizações’ de Samuel Huntington. Em um mundo que está sofrendo mudanças tectônicas na distribuição de riqueza, poder e hegemonia, tais preocupações são compreensíveis. Nestas circunstâncias, seria surpreendente se os partidários das tradições anglosférica e sinosférica não se sentissem provocados à uma defesa ardente de seus méritos e deméritos relativos, e – se Bennett for levado a sério – tais discussões ocorrerão em zonas de comunhão cultural que estão, pelo menos relativamente, cada vez mais introvertidas. A rápida emergência de uma ‘Internet Chinesa’ altamente autônoma nos anos recentes adiciona peso a tais expectativas.

Em Março, o Z/Yen Group lançou o nono em sua série de rankings “Global Financial Centres Index”, no qual Shanghai pulou a um quinto lugar compartilhado com Tóquio (com uma avaliação de 694 no GFCI). Londres (775), Nova Iorque (769), Hong Kong (759) e Singapura (722) lideraram a matilha. (O top 75 pode ser visto aqui.)

Tanto anglosferenses quanto sinosferenses pode encontrar pronta satisfação nessas avaliações. A persistente supremacia de Londres e Nova Iorque atestam uma história de 250 anos de dominância econômica mundial, ao passo que a ascensão da cidades comerciais de etnia chinesa aos postos remanescente no topo claramente indica a mudança da gravidade econômica para a região do Pacífico ocidental. Ainda assim, o padrão mais interessante encontra-se no meio. Nem Hong Kong, nem Singapura pertencem inequivocamente a uma Sinosfera (ainda menos a uma ampla Anglosfera). Em vez disso, elas são caracterizadas por formas distintivas de hibridez sino-anglófona – uma síntese cultural imensamente bem sucedida. Seria difícil manter que Shanghai ficou inteiramente intocada por um fenômeno comparável, herdado, nesse caso, da mentalidade sintética de sua era da Concessão Internacional, e refletida em sua singular Hapai ou ‘cultura do oceano’.

A existência de uma Sino-Anglosfera – ou Singlosfera – identificável, mais ainda, é sugerido pelo Índice de Liberdade Econômica de 2011 da Heritage Foundation (avaliado em uma escala de 0 a 100). Nessa lista, os dois lugares do topo são ocupados por Hong Kong (89.7) e Singapura (87.2), seguidas pela Austrália (82.5) e Nova Zelândia (82.3). Os núcleos territoriais angloferense e sinosferense se saem de maneira menos impressionante, nenhum deles satisfazendo os critérios da Heritage para economias livres – os Estados Unidos ficam em nono (77.8), o Reino Unido em 16º (74.5) e a China continental em 135ª (52.0). Parece que a Singlosfera aprendeu algo sobre a liberdade econômica que excede a sabedoria atualmente manifesta de ambas as raízes culturais – estabelecendo um modelo para a Sinosfera e deixando a Anglosfera se arrastando em sua esteira.

Conforme a tendência secular profunda de ascensão chinesa e declínio (relativo, mesmo que não absoluto) americano leva a rumores cada vez mais agourentos e ameaças de tensão geoestratégica, é especialmente importante notar um padrão bastante diferente e não-conflituoso – embasado em fusão cultural e liberação recíproca. Dentro da Singlosfera, uma etnia emergente e sintética exibe uma competência dinamicamente adaptativa e cosmopolita sem par, conforme tradições distintas de ordem espontânea se fundem e reforçam uma à outra. Adam Smith encontra Laozi, e a profunda amalgamação dos dois resulta no desdobramento de uma cultura inovada que cada vez mais domina os rankings mundiais de capacidade econômica.

Um notável estudo de Christian Gerlach escava as raízes taoistas das ideias europeias de laissez-faire (ou wu wei), e o rebelde anarco-capitalista Murray Rothbard tinha atração pela mesma ‘Antiga Tradição Libertária Chinesa‘. Ken McCormick a chama de O Tao do Laissez-Faire. (Aqueles que ficarem perturbados com esta identificação podem ficar mais confortáveis com a crítica esquerdista do ‘Taoismo de Mercado’ de Silja Graupe.)

McCormick conclui seu ensaio:

A recente ascensão de ideias de livre mercado ao redor do mundo provavelmente se deve mais ao sucesso histórico prático dessas ideias do que ao poder de persuasão de qualquer teoria ou filosofia. Ainda assim, pode-se especular que o surpreendente sucesso da liberalização econômica na República Popular da China poderia, em parte, ser explicado pelo fato de que a ideia de mercados livres está incorporada na cultura. De fato, o Confucionismo que há muito dominou a China foi, na verdade, uma síntese de escolas concorrentes de pensamento, que incluíam o Taoismo… Consequentemente, embora o laissez-faire frequentemente tenha estado ausente da prática chinesa, ele não é de forma alguma alienígena à cultura chinesa. As recentes reformas de livre mercado na China poderiam, portanto, ser interpretadas não tanto quanto uma importação de uma ideologia estrangeira, mas como um redespertar de um conceito doméstico.

A Singlosfera coloca tanto o Oriente quanto o Ocidente no caminho certo. Quanto mais Shanghai relembrar e aprender com isso – e quanto mais profunda for sua participação – tão mais rápido sua ascensão será.

Original.

Pico de Pessoas

Poderíamos estar enfrentando a derradeira crise de recursos

No Zero Hedge, Sean Corrigan desencadeou uma polêmica efervescente contra a escola de previsores de catástrofes de recursos de M. King Hubbert (aprecie o artigo se você estiver inclinado ao laissez-faire, ou os comentários se não).

De particular relevância ao promotores da densidade é o “exercício de contextualização” de Corrigan (um tipo de Stand on Zanzibar des-enfatizado), desenhado para fornecer um imagem do ‘fardo demográfico’ do planeta:

Por exemplo, apenas enquanto exercício de contextualização, considere o seguinte:-

População de Hong Kong: 7 milhões. Sua área de superfície: 1,100 km2

A população do Mundo: perto de 7 bilhões, isto é, HK x 1000

1000 x a área de HK = 110,000 km2 = a área de Cuba ou da Islândia

Área aproximada da massa terrestre da Terra = 150 milhões de km2

Área aproximada de superfície total = 520 milhões de km2

Então, se fossemos construir uma única vasta cidade com a mesma densidade populacional de Hong Kong para cobrir a totalidade de [Cuba], isto acomodaria toda a humanidade e ocuparia apenas 0,07% da área terrestre do planeta e 0,02% da superfície da Terra.

Qualquer um que esteja ansiosamente antecipando hipercidades, arcologias e outros experimentos prospectivos em amontoamentos sociais de larga escala provavelmente achará este cálculo bastante desconcertante, ainda que apenas porque – tomada como um todo – Hong Kong, na verdade, não é tão densa. Por certo, a ‘sinapse’ central que conecta a Ilha de HK a Kowloon é impressionantemente intensa, mas a maior parte da RAE (Região Administrativa Especial) de Hong Kong é verdejante, acidentada e basicamente deserta. Sua densidade média de 6364 hab/km2 não chega nem perto daquela das primeiras 100 cidades (os 43000 hab/km2 de Manila é quase sete vezes maior). Corrigan não está vislumbrando uma megalópole, mas um subúrbio do tamanho de Cuba.

Se os densitários estão mais ou menos propensos do que a média a se preocuparem com o Pico do Petróleo ou questões relacionadas poderia ser uma questão interessante (os Novos Urbanistas tendem a ser bastante verdes). Se eles realmente querem ver as cidades escalarem às alturas da possibilidade social, contudo, eles precisam se preocupar com a escassez de população. Com a população humana projetada para se nivelar em torno de 10 bilhões, poderia nunca haver pessoas o suficiente para fazer das cidades os monstros ultra-densos que a imaginação futurista há muito anseia.

Bryan Caplan está soando o alarme. Pelo menos, temos as hordas fervilhantes de robôs Malthusianos pelas quais esperar.

Original.

Mentalidade Estatística

As coisas provavelmente são mais esquisitas do que parecem

Conforme as ciências naturais se desenvolveram até englobar sistemas cada vez mais complexos, a racionalidade científica se tornou cada vez mais estatística, ou probabilística. A mecânica clássica determinística do iluminismo foi revolucionada pela mecânica estatística de semi-equilíbrio dos atomistas do final do século XIX, pela mecânica quântica no começo do século XX e pelos teóricos da complexidade longe do equilíbrio do fim do século XX. O neo-darwinismo matemático, a teoria da informação e as ciências sociais quantitativas compuseram a tendência. Forças, objetos e tipos naturais foram progressivamente dissolvidos em distribuições estatísticas: nuvens heterogêneas, desvios de entropia, funções de onda, frequências genéticas, razões ruído-sinal e redundâncias, estruturas dissipativas e sistemas complexos à beira do caos.

Por volta das décadas finais do século XX, um probabilismo ilimitado se expandia para territórios até então inimagináveis, testando argumentos profundamente desconhecidos e contra-intuitivos da metafísica ou ontologia estatística. Já não bastava ao realismo atender às multiplicidades, porque a própria realidade estava sujeita à multiplicação.

Em sua declaração cogito ergo sum, Descartes concluiu (talvez de maneira otimista) que a existência do eu poderia ser seguramente concluída a partir do fato do pensamento. Os ontologistas estatísticos inverteram esta fórmula, peguntando: dada minha existência (ou seja, uma existência que se parece assim para mim), que tipo de realidade é provável? Que realidade esta tem probabilidade de ser?

O roboticista do MIT Hand Moravec, em seu livro de 1988 Mind Children, parece ter iniciado o gênero. Extrapolando a Lei de Moore para o futuro não tão distante, ele antecipou capacidades computacionais que excediam aquelas de todos os cérebros biológicos em muitas ordens de magnitude. Uma vez que cada cérebro humano roda sua simulação mais ou menos competente do mundo a fim de funcionar, parecia natural esperar que as inteligências tecnosféricas vindouras fizessem o mesmo, mas com escopo, resolução e variedade vastamente superiores. A replicação em massa de cérebros robôs, cada um deles bilhões ou trilhões de vezes mais poderoso do que aqueles de seus progenitores humanos, forneceria um substrato para simulações histórias inúmeras, imensas e minuciosamente detalhadas, dentro das quais inteligências humanas poderiam ser reconstruídas a um nível efetivamente perfeito de fidelidade.

Esta visão alimenta uma literatura florescente sobre substratos mentais não-biológicos, upload de consciências, clones mentais, emulações (’ems’) de cérebros completos e realidades artificiais no estilo Matrix. Uma vez que as realidades que atualmente conhecemos já são simuladas (assumamos momentaneamente) em sistemas biológicos de processamento de sinais com especificações quantitativas altamente finitas, não há razão para antecipar confiantemente que uma simulação ‘artificial’ da realidade seria de qualquer maneira distinguível.

‘Isso’ é história ou a sua simulação? Mais precisamente: ‘isso’ é uma simulação biológica contemporânea (embasada no cérebro) ou uma memória reconstruída e artificial, rodada em um substrato tecnológico ‘no futuro’? Esta é uma questão sem solução clássica, argumenta Moravec. Ela só pode ser abordada, de maneira rigorosa, com a estatística e, uma vez que o número de história simuladas refinadas (desconhecido, mas provavelmente vasto) excede esmagadoramente o número de histórias atuais ou originais (para este argumento, uma), então o cálculo probabilístico aponta inabalavelmente na direção de uma conclusão definitiva: podemos estar quase certos de que somos habitantes de uma simulação operada por inteligências artificiais (ou pós-biológicas) em algum ponto no ‘nosso futuro’. Pelo menos – uma vez que muitas alternativas se apresentam – podemos estar extremamente confiantes, com base na ontologia estatística, de que nossa existência não é original (se não for reconstrução histórica, poderia ser um jogo ou ficção).

Nick Bostrom formaliza o argumento da simulação em seu artigo ‘The Simulation Argument: Why the Probability that You are Living in the Matrix is Quite High’ (encontrado aqui):

Agora chegamos ao cerne do argumento da simulação. Este não pretende demonstrar que você está em uma simulação. Em vez disso, ele mostra que deveríamos aceitar como verdadeira pelo menos uma das três seguintes proposições:

(1) As chances de que uma espécie em nosso atual nível de desenvolvimento possa evitar ser extinta antes de se tornar tecnologicamente madura são negligenciavelmente pequenas
(2) Quase nenhuma civilização tecnologicamente madura está interessada em rodar simulações computacionais de mentes como as nossas
(3) Você quase certamente está em uma simulação

Cada uma dessas três proposições podem ser, a primeira vista, implausíveis; ainda assim, se o argumento da simulação está correto, pelo menos uma é verdadeira (ele não nos diz qual).

Se obstáculos à existência de simulações de alto-nível (1 e 2) forem removidos, então o raciocínio estatístico assume o controle, seguindo a linha exata estabelecida por Moravec. Estamos “quase certamente” habitando uma “simulação computacional que foi criada por alguma civilização avançada” porque estas saturam à quase exaustão o espaço probabilístico para realidade ‘como esta’. Se tais simulações existem, vidas originais seriam tão pouco prováveis quanto ganhar na loteria, na melhor das hipóteses.

Bostrom conclui com uma reviravolta intrigante e influente:

Se estamos em uma simulação, é possível que saibamos isso com certeza? Se os simuladores não quiserem que descubramos, provavelmente nunca iremos. Mas se eles escolherem se revelar, eles certamente o poderiam fazer. Talvez uma janela lhe informando do fato apareceria bem em sua frente, ou talvez eles fariam o seu “upload” para o mundo deles. Um outro evento que nos levaria a concluir com um alto grau de confiança que estamos em uma simulação é se jamais alcançarmos o ponto em que estamos próximos de passar para nossas próprias simulações. Se começarmos a rodar simulações, isso seria uma evidência muito forte contra (1) e (2). Isso nos deixaria apenas com (3).

Se criarmos simulações refinadas da realidade, demonstramos – com um alto nível de confiança estatística – que já habitamos uma e que a história que levou ate esse momento de criação era falsa. Paul Almond, um ontologista estatístico entusiasta, extrai a implicação radical – causação reversa – perguntando Você consegue se colocar retroativamente em uma simulação computacional?

Tal ontologia estatística, ou existencialismo bayesiano, não está restrita ao argumento da simulação. Ela cada vez mais subordina discussões sobre o Princípio Antrópico, sobre a Interpretação dos Muitos Mundos da Mecânica Quântica, e modos exóticos de previsão, desde o Argumento do Juízo Final até o Suicídio (e Imortalidade) Quânticos.

O que quer que esteja realmente acontecendo, provavelmente teremos que arriscar.

Original.

“2035. Provavelmente antes.”

Tem o rápido, e aí tem… alguma coisa a mais

Eliezer Yudkowski agora categoriza seu artigo ‘Staring into Singularity‘ como ‘obsoleto’. Ainda assim, ele permanece entre os ensaios filosóficos mais brilhantes já escritos. Raramente, ou nunca, tanta coisa de valor foi dita sobre o absolutamente impensável (ou, mais especificamente, o absolutamente impensável para nós).

Por exemplo, Yudkowski mal se detém no fenômeno do crescimento exponencial, apesar do fato de que isto já exige demais de toda intuição confortável e garante mudanças revolucionárias de tamanha magnitude que a especulação vacila. Ele está convencido de que a exponenciação (e até mesmo a ‘dupla exponenciação’ de Kurzweil) só alcança o ponto inicial da aceleração computacional e que a propulsão para dentro da Singularidade não é exponencial, mas hiperbólica.

Cada vez que a velocidade do pensamento se duplica, os calendários se reduzem pela metade. Quando a tecnologia, incluindo o design de inteligências, sucumbe a tal dinâmica, ela se torna recursiva. A taxa de auto-melhoria colapsa com rapidez regularmente crescente em direção à instantaneidade: uma verdadeira e matematicamente exata, ou pontual, Singularidade. O que jaz além não é meramente difícil de imaginar, é absolutamente inconcebível. Tentar retratá-lo ou descrevê-lo é uma futilidade ridícula. A ficção científica morre.

“Um grupo de computadores equivalentes a humanos demora 2 anos para duplicar as velocidades dos computadores. Em seguida, eles demoram outros dois anos subjetivos, ou 1 ano em termos humanos, para dobrá-las novamente. Em seguida, eles demoram outros 2 anos subjetivos, ou seis meses, para dobrá-las novamente. Depois de quatro anos no total, o poder computacional vai ao infinito.

Esta é a versão ‘Transcendida’ da sequência de duplicação. Vamos chamar a ‘Transcendente’ de uma sequência {a0, a1, a2…} a função em que o intervalo entre an e an+1 é inversamente proporcional a an. Então, uma função de duplicação Transcendida começa com 1, caso no qual ela demora 1 unidade de tempo para chegar a 2. Então, ela demora 1/2 unidade de tempo para chegar a 4. Então, ela demora 1/4 unidade de tempo para chegar a 8. Esta função, se fosse contínua, seria a função hiperbólica y = 2/(2-x). Quando x = 2, então (2-x) = 0 e y = infinito. O comportamento nesse ponto é conhecido matematicamente como singularidade.”

Dificilmente poderia haver uma fórmula mais precisa, plausível ou consequente: Os períodos de duplicação se reduzem pela metade. No declive até a Singularidade – a ‘explosão de inteligência‘ de I. J. Good – a exponenciação é composta por uma tendência hiperbólica. A aritmética de tal processo é bastante simples, mas suas implicações históricas são estritamente incompreensíveis.

“Eu sou um Singularitário porque eu tenho uma pequena estimação do quão completamente, definitivamente, absolutamente impossível é pensar como alguém mesmo um pouquinho mais inteligente do que você. Eu sei que estamos todos perdendo o óbvio, todos os dias. Não existem problemas difíceis, apenas problemas que são difíceis para um certo nível de inteligência. Mova-se o menor bocado para cima, e alguns problemas de repente se movem de ‘impossíveis’ para ‘óbvios’. Mova-se um grau substancial para cima, e todos eles se tornam óbvios. Mova-se uma grande distância para cima…”

Uma vez que o argumento leva o pensamento humano ao seu ponto de despedaçamento, é natural que algumas pessoas sejam repelidas por ele. Ainda assim, seus fundamentos básicos são quase inexpugnáveis à objeção lógica. A inteligência é uma função do cérebro. O cérebro foi ‘projetado’ por processos naturais (não apresentando quaisquer dificuldades especiais discerníveis). Desta forma, a inteligência obviamente é um problema de engenharia, em última análise, tratável. A natureza já ‘a projetou’ enquanto empregava métodos de design de ineficiência tão estonteante que apenas uma força bruta e obstinada, combinada, é claro, com uma completa crueldade, moveu as coisas adiante. Ainda assim, a triplicação da massa cortical dentro da linhagem dos primates superiores levou apenas alguns milhões de anos e precisou – na maior parte deste período – apenas de uma população experimental modesta (de poucos milhões ou menos).

O problema tecnológico contemporâneo, em contraste com aquele biológico preliminar, é vastamente mais fácil. Ele se baseia em uma gama mais ampla de materiais e técnicas, uma base de inteligência e conhecimento instalada, meios de informação superiores, sistemas de feedback mais altamente dinamizados e uma rede de recursos auto-amplificadora. Não surpreende que esteja avançando a uma velocidade incomparavelmente maior.

“Se tivéssemos uma máquina do tempo, 100K de informação do futuro poderiam especificar uma proteína que construísse um dispositivo que nos daria nanotecnologia do dia para a noite. 100K poderiam conter o código de uma IA semente. Desde o fim dos anos 90, a Singularidade tem sido apenas um problema de software. E software é informação, a coisa mágica que muda a velocidades arbitrariamente altas. No que diz respeito à tecnologia, a Singularidade poderia acontecer amanhã. Uma descoberta – um só grande insight – na ciência da engenharia de proteínas ou da manipulação atômica ou da Inteligência Artificial, um dia realmente bom na Webmind ou na Zyvex, a porta para a Singularidade se escancara.”

Original.