Anúncio Conheça a máscara antiviral que desativa os vírus em até 5 minutos

O museu de grandes novidades da tecnologia: o futuro que nunca chegou

Pessoas jogando um jogo de tabuleiro em um carro autônomo, num anúncio de 1957.

Há alguns acontecimentos na história que parecem fadados a acontecer, que é só questão de tempo até que aquilo se concretize, mas que no fim não acontecem. Na política brasileira, existe a presidência de Tancredo Neves e o caso clássico de Fernando Henrique Cardoso posando para fotógrafos sentado na cadeira de prefeito de São Paulo dias antes da eleição de 1985, tamanha era sua confiança. Quando Jânio Quadros levou, declarou à imprensa: “gostaria que os senhores testemunhassem que estou desinfetando esta poltrona porque nádegas indevidas a usaram”. Na política internacional, o melhor exemplo é a esperada vitória do candidato republicano Thomas Dewey sobre o democrata Harry Truman pela Casa Branca em 1948. Truman não só levou como posou com um jornal que adiantava sua derrota, em uma das cenas mais clássicas do jogo político global. No esporte, a vitória do Brasil na Copa do Mundo de 1982, o Cavaliers perder do Warriors na final da NBA em 2016 e o rebaixamento do Fluminense no Brasileirão de 2009.

Todo mundo lembra bem quando foi o momento em que a gente se ligou que a vida é complexa demais para cantar vitória antes da hora. Essa surpresa nos acompanha até o dia em que morrermos e atinge todas as áreas da vida. Em um setor com alterações e evoluções tão rápidas como o de tecnologia, esses casos são bastante comuns. De vez em quando, é bom olhar para trás e recapitular algumas derrotas tecnológicas e o que elas ensinam sobre a forma como a sociedade desenvolve, assimila e usa tecnologia.

É essa “tecno-arqueologia” que faremos no episódio desta quinzena do Tecnocracia. A gente vai destrinchar quatro tecnologias ou produtos que, quando apareceram, pareciam prontos para uma assimilação em massa que transformaria a forma como usamos tecnologia, nos locomovemos, nos comunicamos… Caso tivessem vingado, nossa vida hoje seria diferente, mas nenhum deles cumpriu sua promessa. Estão todas em um conceito definido pelo Cazuza de que gosto muito: o “museu de grandes novidades”, inovações que pararam no museu antes mesmo de serem adotadas pelo público.

Ilustração com uma mãozinha depositando uma moeda em uma caixa com o logo do Manual do Usuário em uma das faces, segurada por dois pares de mãos. Ao redor, moedas com um cifrão no meio flutuando. Fundo alaranjado.

Apoie o Manual do Usuário.
Você ajuda a manter o projeto no ar e ainda recebe recompensas exclusivas. Saiba mais »

Antes de entrar nos casos, vamos deixar claro que o “museu de grandes novidades” está lotado e tem uma antessala bastante disputada. Dentro dele estão exemplos que não couberam aqui, como o Kinect da Microsoft, apontado como o futuro das interfaces tecnológicas e que pode ter sido o embrião do Face ID, mas nunca ocupou o papel centralizador em casa que se esperava. Quem ganhou foi a voz, não o corpo. Talvez possamos transformar o “museu de grandes novidades” em uma série do Tecnocracia, de tanta coisa que tem. Já na antessala estão tecnologias ou produtos bastante incensados na última década que ainda não cumpriram todo o potencial esperado. Pode ser que, por um milagre, elas revertam o atual curso rumo à irrelevância e, finalmente, se transformem no que se esperava delas. Mas, até agora, tudo indica que elas ocuparão uma vitrine do museu.

Estão nessa antessala tecnologias como a realidade virtual, enaltecida como a próxima grande plataforma depois dos smartphones e por trás de aportes e aquisições bilionárias, como o Magic Leap e o Oculus, mas cada vez mais relegada a um nicho minúsculo de profissionais e gamers, e o blockchain, a solução à procura de um problema (se você precisa armazenar dados privativamente para que sua empresa consulte, use um banco de dados. Fim da história). O tempo dirá se minhas frases agora foram na mosca ou idiotas.

Enfim, ao primeiro exemplo.

WiMax

No começo dos anos 2000, eram poucas as pessoas que estavam conectadas à internet móvel. Primeiro que faltavam aparelhos bons e baratos — a Nokia só lançaria o N95 em 2006 e a Apple, o iPhone em 2007. Mas não adiantaria nada ter um smartphone nas mãos se a rede não aguentasse o tranco. Estávamos na era do 2G, um padrão de conectividade que permitia velocidades de 40 kbit/s, menos que um modem da internet discada. Não à toa, o WAP, um antecessor rudimentar da internet móvel, dominava o ainda minúsculo mercado da conectividade. O 3G era uma enorme melhoria (a partir de 144 kbit/s, maluco!) e prometia a primeira experiência de internet móvel real — não à toa, o iPhone só decola em vendas com a versão 3G, lançada em julho de 2008, mas essa é outra discussão.

O meu ponto principal aqui é que a questão estava muito longe de ser resolvida. Ainda que fosse uma melhora, o 3G tinha pontos fracos. O principal deles era a necessidade de investimento enorme por parte das operadoras e, consequentemente, de uma base grande de clientes para justificar aquele investimento. O começo dos anos 2000 era uma época em que também estávamos começando a descobrir o Wi-Fi. As poucas redes domésticas sem fio eram do padrão 802.11b, ainda muito lenta. O padrão 802.11g, quase cinco vezes mais rápido, seria lançado só na metade de 2003.

Você tinha dois problemas aí. Primeiro: a banda larga móvel ainda era lenta. Segundo: as redes domésticas ainda eram lentas. É partindo desse contexto que você consegue entender por que um padrão de conectividade proposto nessa época ganhou tanta tração e parecia ser o futuro de como nos conectaríamos. Era o WiMax. O WiMax prometia velocidades em 37 Mbps em um raio de até 50 quilômetros. A tecnologia parecia tão melhor, tão mais pronta que todas as outras, que o mercado começou a ver o WiMax como o eventual substituto do Wi-Fi e das redes de internet móvel, as duas no mesmo sinal. Executivos e analistas discutiam os detalhes do cenário, tão evidente de se concretizar, em eventos como o WiMax Brazil Conference & Expo, que aconteceu em 2008.

A certeza era tanta que grandes empresas já se movimentavam para garantir que, quando o WiMax chegasse, elas estivessem bem posicionadas para lucrar. A Intel criou uma espécie de protótipo de “cidade inteligente” em Parintins, no Amazonas, com rede WiMax para conectar os mais de 114 mil habitantes da cidade. Parintins não foi a única: Foz do Iguaçu (PR) também ganhou sua rede WiMax.

Por que a Intel gastou milhões de reais no protótipo? A empresa tinha muito interesse no assunto por ter desenvolvido chipsets e modelos de hardware que eram repassados para que fabricantes desenvolvessem. Por anos, a Intel operou nesse modelo: a fabricante de chips não criava, na teoria, o computador ou o roteador final, mas tinha tanto dinheiro que empregava designers para criar as especificações dos aparelhos, que eram repassadas às fabricantes. Elas não gastavam nada na criação do produto, mas eram obrigadas a fabricá-los com chips e chipsets da Intel.

Slide de um evento da Intel com o logo do WiMax escrito "Conexão sem fio de banda larga é importante".
Apresentação do WiMax em um evento da Intel em 2007. Foto: Anandtech/Reprodução.

O WiMax em Parintins não foi a única jogada da Intel desse tipo. Assim que a ONG One Laptop per Child propôs a ideia de distribuir um notebook educacional (ou seja, menos potente e com conteúdos educativos) para cada aluno dos países em desenvolvimento, a Intel criou o seu notebook educacional, o Classmate, e fez testes no Brasil na Fundação Bradesco, em Osasco (SP), e na rede pública de Piraí, cidade carioca à época com cerca de 29 mil habitantes. Visto hoje, o vídeo que comemora os 10 anos do projeto Piraí Digital soa excessivamente utópico. O Classmate é parte do tecnicismo que temos visto na última década na discussão sobre tecnologia e educação, como se a introdução de um notebook fosse, magicamente, resolver as questões educacionais no Brasil. Sempre bom lembrar que o Brasil ainda tem centenas de escolas públicas que não têm ao mesmo tempo luz, esgoto e água encanada. Mas isso é assunto para outro Tecnocracia.

O WiMax também foi envolvido no jogo político também. A candidata do PT à prefeitura de São Paulo em 2008, Marta Suplicy, prometeu que, caso eleita, conectaria a cidade inteira em uma rede sem fio gratuita usando o WiMax. A campanha de Marta conseguiu trazer para liderar a iniciativa Tadao Takahashi, um dos sujeitos fundamentais para a internet comercial no Brasil. Na metade da década de 1990, quando a internet estava engatinhando por aqui, foi Tadao, à frente da Rede Nacional de Ensino e Pesquisa (RNP), quem liderou a construção do primeiro backbone em larga escala do país. Tadao foi o segundo brasileiro a entrar no Hall da Fama da Internet. O primeiro foi o Demi Getshcko, o sujeito considerado o “pai da internet” no Brasil e que deu a Tadao a função de criar o backbone. Ter o Tadao criando o projeto era algo relevante, mas inúmeros especialistas ouvidos na época duvidaram da viabilidade do projeto de conectar uma cidade do tamanho de São Paulo com uma tecnologia ainda não provada como o WiMax, principalmente em quatro anos. Primeiro que o WiMax da teoria não era o WiMax da vida real: em testes, a área de alcance que, teoricamente poderia chegar a 50 km, chegava a 8 km. Segundo por envolver uma cansativa negociação para instalar as antenas — em São Paulo, cheia de prédios, o alcance deve ser ainda menor. Terceiro que não existia quase nenhum aparelho compatível com WiMax. Marta não foi eleita e o projeto nunca saiu do papel.

Frente ao entusiasmo com o WiMax, o mercado foi incapaz de notar um ponto cego importantíssimo: o marketing, nem sempre, se apoia na realidade. Uma das primeiras redes WiMax implementadas no mundo foi a da operadora australiana Buzz Broadband. Pouco mais de um ano depois, a empresa encerrou o serviço, segundo o CEO Garth Freeman, por falta de conectividade além de 2 km da base e a latência, em alguns casos, de mil milisegundos. A entrevista de Freeman abateu o WiMax em pleno voo e mostrou o quanto a campanha teórica não condizia com a realidade. Naquele momento, operadoras de todo mundo estavam estudando como investiriam no sucessor do 3G. Existia um novo padrão, chamado LTE, razoavelmente compatível com as redes e equipamentos já usados, e um padrão mais antigo, o WiMax, que exigia mais dinheiro para mudar questões fundamentais de infra-estrutura. A escolha foi óbvia. No Brasil, a Telefônica testou um serviço comercial de WiMax em dois bairros de São Paulo que não foi a lugar nenhum.

Ficou a lição: em tecnologia, nem sempre o que funciona no laboratório e na campanha de marketing funciona no mundo real.

HD DVD vs. Blu-ray

Prateleiras de uma loja exibindo discos HD DVD (esquerda) e Blu-ray.
Foto: calaggie/Flickr.

O segundo caso envolve a versão mais recente de uma briga que se prolongava, pelo menos, desde a década de 1970. Uma explicação rápida: com a popularização do cinema, criou-se também um mercado para explorar a exibição doméstica de obras audiovisuais. Era preciso uma tecnologia para que as pessoas pudessem comprar ou alugar os filmes, séries e álbuns que mais gostavam para levar para casa.

Em um espaço de dois anos, duas empresas japonesas lançaram padrões próprios para encapsular vídeo para consumo doméstico. Em 1975, a Sony lançou o padrão Betamax e, em 1976, a JVC lançou o Video Home System, VHS. Ambos usavam o mesmo sistema de fitas magnéticas que permitiam, desde a década de 1950, que canais de TV gravassem um programa e o transmitissem mais tarde. Os primeiros anos de TV foram majoritariamente ao vivo por uma limitação técnica. A partir de 1956, os primeiros gravadores e tocadores começaram a chegar ao mercado. O problema era o preço: o Ampex VRX-1000, lançado em 1956, custava cerca de US$ 50 mil. A vida das TVs ficou mais fácil, mas o preço era tão alto que, durante duas décadas, só usava o sistema de fitas magnéticas quem trabalhava no setor audiovisual.

A realidade começou a mudar em 1975, quando o primeiro player de Betamax chegou às prateleiras japonesas. Em 1976, foi a vez da JVC colocar nas lojas do Japão o primeiro player de VHS. No ano seguinte, o player chegaria aos Estados Unidos. VHS e Betamax não foram os únicos padrões apresentados — a Philips tentou emplacar seu LaserDisc, uma espécie de CD gigante. O LaserDisc foi descartado rapidamente por não permitir algo trivial para VHS e Betamax: além de tocar, eles podiam gravar conteúdos.

A guerra estava posta e, mesmo que você nunca tenha mexido num videocassete, provavelmente sabe que o vencedor foi o VHS. Tecnicamente, a Betamax era um padrão superior — a imagem tinha melhor qualidade. Mas foram decisões comerciais que decidiram a disputa. Para começo de conversa, a Sony decidiu — de forma arbitrária — que cada fita de Betamax só gravaria 1 hora de conteúdo, ainda que tivesse espaço para mais. O VHS permitia o dobro, 2 horas. A Sony também posicionou seus players como algo high-end, para quem poderia pagar, enquanto a JVC apostou em uma abordagem mais de massa: os videocassetes VHS estavam em todas as lojas para aluguel (no começo, era caro ter um, por isso muita gente alugava) e compra. Isso casou muito bem com outra parte da estratégia: a JVS licenciava o padrão para quem tinha interesse em fabricar, o que aumentou o catálogo de fitas e derrubou o preço das câmeras e dos players (US$ 1 mil por um player VHS contra US$ 2 mil por um Betamax). A Sony, pelo contrário, só começou a abrir mão do seu controle de fabricação no começo da década de 1980, quando o VHS já tinha saltado adiante. Tarde demais. Na metade dos anos 1980, o mercado global de conteúdo audiovisual doméstico já estava no colo do VHS, ainda que a tecnologia fosse tecnicamente inferior à do Betamax.

No meio da década de 1990, quando parecia claro que era hora de começar a pensar no sucessor do VHS, a indústria, ainda assustada pelo dinheiro que a Sony jogou fora em criar, fabricar e comercializar um padrão derrotado, se uniu e concordou em um padrão único: o DVD. O DVD reinou sem qualquer concorrência a partir de 1996. Uma década depois, quando também estava claro que o padrão era incapaz de lidar com o conteúdo em alta definição que começava a surgir, era hora de novo de investir em um novo padrão. A serenidade do processo do DVD apagou o tamanho do rombo que a derrota da Sony com o Betamax causou, o que fez com que dois padrões se apresentassem para uma nova guerra.

De um lado, um consórcio liderado pela Toshiba e composto por NEC e Sanyo apresentou o HD DVD. Do outro, um consórcio liderado pela mesma Sony e composto por Hitachi, LG, Panasonic, Pioneer, Philips, Samsung e Sharp apostou no Blu-ray. Houve uma tentativa de unir ambos para evitar um desperdício de dinheiro — os dois lados sabiam que, inevitavelmente, um deles ia perder uma grana enorme. Sem acordo, foi cada um com sua estratégia. O HD DVD e o Blu-ray estrearem em 2006 e, de novo, o melhor formato tecnicamente perdeu e, de novo, por razões comerciais.

Essa guerra tinha dois personagens muito importantes: o estúdio de cinema e a videolocadora. Na época, eram seis os grandes estúdios de cinema e metade ficou com cada um dos padrões: Universal, Paramount e Warner Bros. com HD DVD e Sony Pictures (lógico), Disney e Fox com Blu-ray. Em 2007, alguns estúdios anunciaram que lançariam seus filmes exclusivamente em cada um dos formatos, algo que tinha potencial para definir a briga. Mas foi uma locadora quem deu a primeira estocada que levou à derrota do HD DVD. Não qualquer uma — a maior do mundo. Em 2006, a Blockbuster comprou e ofereceu para aluguel filmes nos dois formatos em 250 lojas. Era um cenário isonômico — condições iguais a ambos, que vença o melhor. Em junho de 2007, a rede anunciou que 70% dos alugueis eram de Blu-rays e, por isso, abandonaria o HD DVD em suas mais de 1,4 mil lojas pelo mundo. Um semestre depois, em janeiro de 2008, a Warner Bros. mudou de lado e anunciou que só lançaria filmes em Blu-ray. Acabou.

E, para esse caso, eu posso falar com um pouco mais de detalhes já que, quando a Warner Bros. fez seu anúncio, eu estava em Las Vegas cobrindo a Consumer Eletronics Show (CES), o que era a maior feira de eletrônicos do mundo até que as empresas se ligaram que não precisavam represar anúncios num evento de terceiro e começaram a promover, elas mesmas, seus eventos para mostrar ao mundo suas novidades. Essa foi a CES em que o BIll Gates anunciou que se aposentaria da MIcrosoft, com um vídeo bem humorado (mas um pouco constrangedor) atulhado de participações especiais. A uma certa altura, o Slash entrou no palco tocando guitarra. Horas depois, voltando da feira, lá estava o Slash parado num canto do cassino sozinho fumando um cigarro. Enfim. A edição de 2008 abriu três dias depois que a Warner Bros. anunciou que trocaria de lado e abandonaria o HD DVD, ou seja, quando veio o release para a imprensa, o stand do HD DVD já tinha sido planejado, produzido e estava montado em Las Vegas. Quem teve a oportunidade de visitá-lo viu uma espécie de cemitério, com um monte de material de divulgação, vídeos promocionais, tocadores reproduzindo filmes e quase nenhum profissional lá dentro. Era quase um trem fantasma. Um dos poucos executivos que mantiveram guarda no estande me disse que a notícia foi, realmente, um choque para o consórcio, mas se vestiu logo da figura corporativa para cravar que nada ainda estava decidido (spoiler: estava). O site para o qual eu escrevia foi vendido para o rival e saiu do ar, logo eu não achei a reportagem que escrevi naquele dia.

O clima fúnebre do HD DVD se contrastava com a festa do Blu-ray. Finalmente, a Sony tinha vencido uma guerra de formatos e, pelos próximos anos, ganharia o dinheiro enterrado na derrota do Betamax. Afinal, o mundo já estava na transição para conteúdo em alta definição e quem quisesse assistir filmes e séries em HD no conforto de casa teria que gastar alguns milhares de dólares (ou mais milhares de reais), com uma parte desse montante indo direto para o bolso da Sony. O que a Sony não anteviu é que outra transição estava acontecendo em paralelo: a melhor mídia para assistir conteúdo em alta definição nem mídia física era. Era a internet. Um ano antes da tal CES, uma empresa de aluguel de DVDs pelo correio chamada Netflix lançou seu serviço de streaming — em vez de esperar pelo disco, era possível vê-lo com um clique. Era uma ideia ousada, dada a qualidade da banda larga na época. Em 2020, você já sabe o que aconteceu. O Blu-ray ganhou, mas não levou. Hoje, o formato que parecia ser o futuro foi reaproveitado como o leitor ótico do Playstation. Ainda existem milhões por aí, mas não para o uso original. Quantas vezes você usou seu Playstation nos últimos anos para ver um filme ou série em Blu-ray? Eu usei uma só.

As coisas não funcionam, necessariamente, como no passado.

Os terceiro e quarto exemplos seguem uma mesma linha, então eu vou uni-los.

Second Life

Em 2003, a empresa de um sujeito chamado Philip Rosedale lançou uma comunidade imersiva chamada Second Life. Ainda que parecesse um jogo, não era — você tinha um avatar com liberdade pelo mundo virtual, mas o intuito não era matar o inimigo ou completar tarefas, era só conhecer os outros e bater papo. O Second Life foi um pioneiro dos jogos online sandbox em que, atualmente, milhões de pessoas se conectam para cumprir tarefas ou matar uns aos outros — o GTA Online seria bem diferente e talvez o Fortnite nem existisse se não fosse o serviço do Philip Rosedale.

Capa da revista BusinessWeek de maio de 2006, fundo amarelo e o avatar 3D de Anshe Chung à frente, mulher oriental com cabelos pretos e vestido vermelho.No começo dos anos 2000, o Second Life virou um dos queridinhos do mercado de tecnologia. A revista de negócios BusinessWeek dedicou uma capa para explicar como o ambiente digital seria o futuro da socialização online. Você entraria, definiria as características do seu avatar, compraria roupas e acessórios e sairia voando em direção às ilhas com pessoas que tivessem interesses parecidos aos seus. O Second Life também seria uma mina de dinheiro já que, como todo mundo que frequenta sandbox online ou MMORPGs hoje sabe, era preciso ter moedas específicas para comprar itens dentro do mundo virtual. Essas moedas eram vendidas exclusivamente pela Linden Labs, a empresa do Rosedale. Não era só a criadora do Second Life que ganhava dinheiro — você tinha contrapartidas de profissionais reais dentro da simulação. A mais famosa, que estampou a tal capa da BusinessWeek (ao lado), era o avatar chamado Anshe Chung, que ganhou milhões de dólares criando e customizando ilhas, vendidas posteriormente para interessados.

Quando a mídia começou a cobrir o fenômeno Second Life, criou-se uma expectativa de que, nos passos do metaverso1 descrito pelo escritor Neal Stephenson no livro Snow Crash (um dos favoritos modernos de ficção científica), todos nós, inevitavelmente, fossemos viver em um ambiente digital em que poderíamos nos liberar das restrições físicas e emocionais para nos expressarmos como quiséssemos. É uma visão anos 1980 de futuro da tecnologia que continua muito em voga. A certeza de que o metaverso era o futuro inevitável fez com que muita gente gastasse uma grana construindo sedes, ilhas e cursos dentro do Second Life. O maior exemplo foi a IBM, que fechou um acordo com a Linden Labs para criar ilhas privativas no Second Life para seus clientes. Aliás, é incrível como, na última década, a IBM embarcou em furadas e perdeu os principais bondes tecnológicos, algo triste de se concluir a respeito da empresa que deu ao mundo o PC, o notebook e o smartphone, além de tecnologias que você usa diariamente sem perceber, como o disco rígido, o banco de dados relacional, a linguagem de programação Fortran e a memória de acesso randômico.

A IBM não foi a única: as grifes Armani e American Apparel abriram lojas, a Ben & Jerry’s montou uma sorveteria, a Adidas colocou de pé um stand de tênis, a Reuters criou uma redação para cobrir exclusivamente o metaverso e, no Brasil, os partidos políticos Democratas e PSDB inauguraram sedes virtuais. Aliás, é outro exemplo de como movimentos de direita adotam tecnologias para fazer política muito antes que os de esquerda, mas isso é assunto para outro Tecnocracia.

Fotos lado a lado com os prédios virtuais do PSDB e do Democratas no jogo Second Life.
Fotos: Guilherme Felitti.

Em 2008, o buzz se esgotou. A base de 1,2 milhão de usuários foi o pico do Second Life e passou a declinar constantemente nos anos seguintes. Todas as empresas que investiram milhões no metaverso saíram, IBM inclusive. Por quê? A visão da interação online em um metaverso foi superestimada. Não era todo computador que rodava o Second Life — nas poucas vezes em que entrei, foi de uma LAN house, naqueles PCs com placa de vídeo para jogar de verdade. Lembre-se que estamos falando de 2007. Havia uma gana do público por interação digital, mas não em metaversos. O Facebook já começava a ganhar tração nos Estados Unidos fora das universidades e o Orkut funcionava como porta de entrada para milhões de brasileiros que nunca tinham acessado a internet. O que não coube na realidade foi o ambiente gráfico.

É difícil argumentar que o Second Life fracassou totalmente — até 2017, a empresa faturava US$ 75 milhões por ano graças a uma base pequena, mas muito ativa. O ponto é que o serviço nunca cumpriu as expectativas depositadas nele. Houve também algumas aplicações sensacionais do Second Life: a Amanda Baggs era uma norte-americana com autismo severo que usava o metaverso para se comunicar. Ela fez um vídeo muito popular em 2007 chamado “In my language” — eu te aconselho a assistir. Ela morreu em abril deste ano.

Ginga

O quarto exemplo: desde que a TV se tornou o centro da sala de estar de toda casa do mundo, existia a expectativa que era uma questão de tempo até que a gente começasse a comprar coisas por ela. O papo da compra mediada pela televisão é antigo; fala-se disso, pelo menos, desde a década de 1980, quando começaram os primeiros testes com interatividade. Até que chegou uma tecnologia que, finalmente, nos livraria do martírio de irmos até as lojas para fazermos compras do conforto do sofá: a TV Digital.

A TV Digital estreou no Brasil em 2 de dezembro de 2007, mesmo dia em que o Corinthians foi rebaixado — e eu sei disso por que eu cobri o processo inteiro, da escolha do padrão japonês ISDB-T ao evento de lançamento do sinal, onde a piada mais popular era essa.

A expectativa em cima das compras na TV se apoiava em um conceito chamado canal de retorno — para existir interatividade, era preciso que a comunicação deixasse de ter só um vetor (canal de TV -> espectador), e ganha um segundo, contrário (espectador -> canal de TV). Durante décadas, esse canal de retorno foi o telefone. Quem via TV nas décadas de 1980 e 1990 lembra como programas ao vivo dependiam de ligações telefônicas para questionar um entrevistado, por exemplo. O protocolo da TV Digital tinha um canal de retorno embutido que, na teoria, permitiria que todo mundo, do conforto do seu sofá, interagisse com o conteúdo apertando botões do controle remoto. As aplicações mais básicas seriam enquetes sobre o conteúdo, mas os olhos do mercado (principalmente varejista) brilhavam quando se imaginava que seria possível comprar, por exemplo, o figurino da atriz da novela pelo controle remoto.

Por que o conceito parecia tão atrativo ao varejo? Duas palavras. A primeira era escala. Desde a década de 1950, quando o Assis Chateaubriand inaugurou a TV no Brasil com o lançamento da TV Tupi em São Paulo, o brasileiro se apaixonou pela mídia. Logo, criou-se um mercado pujante para vender aparelhos de TV. Nas décadas de 1970 e 1980, as maiores fabricantes de eletrônicos do Brasil vendiam TVs — isso foi antes de os coreanos tomarem o mercado para si a partir da segunda metade da década de 1990. Segundo a PNAD do IBGE, 96,4% dos domicílios brasileiros tinham uma TV em 2018. Pode mudar a tecnologia, mas esse dado assombroso nunca muda. A segunda palavra era impulso. Quando você tira toda a fricção do processo de compra (sair de casa, estacionar o carro, andar pelos corredores, provar…), acabam também aqueles momentos de hesitação, em que a gente pensa bem e, é, melhor não comprar, deixa eu economizar esse dinheiro. Compras por impulso significam lucros maiores aos varejistas.

Seria necessário um software para intermediar o canal de retorno do sistema brasileiro de TV Digital. O governo Lula, então, decidiu que o software seria totalmente nacional, como forma de impulsionar a indústria brasileira. Nasceu o Ginga, que, por decreto presidencial, seria integrado obrigatoriamente nas dezenas de milhões de TV vendidas nos anos seguintes. Antevendo seus usos ousados e originais, o governo e a iniciativa privada enterraram estimados R$ 100 milhões no Ginga, segundo levantamento de Valdecir Becker, professor da Universidade Federal da Paraíba (UFPB) e pesquisador da TV digital. A verdade é que a aplicação mais comum do Ginga até hoje são detalhes básicos sobre o programa que você está vendo, como atores e enredo (pode-se ver claramente isso com as novelas da Globo). O tal comércio pela TV (ou T-Commerce, para usar uma sigla que Luciana Gimenez aprovaria) nunca nem saiu do lugar. Sabe quando foi lançado o primeiro teste aberto para o público? Em agosto desse ano, mais de dez anos depois do lançamento da TV Digital no Brasil — Globo e Casas Bahia fizeram testes com a oferta de eletrodomésticos durante o programa É de Casa. Não se sabe quais foram os resultados práticos do teste, se a Casas Bahia vendeu mais fogões e geladeiras pela imensidão de TVs ligadas.

Foto de uma TV exibindo o programa É De Casa, com a interface do Ginga na lateral direita e parte inferior mostrando a oferta de um sofá.
Foto: @tvemconquista/Twitter.

O problema aqui não é a tecnologia. O Ginga é um dos middlewares de interatividade de TV mais avançados no mundo. Quando o governo decidiu por sua criação, abriu um edital, vencido pelo grupo TeleMídia, da PUC do Rio de Janeiro, que vem pesquisando e desenvolvendo aplicações de interatividade em TVs desde o começo da década de 1990. O problema é o modelo de negócios: as TVs não demonstraram interesse em explorar a interatividade plena por não saberem como recuperar o investimento necessário para a tal interatividade. Na teoria, seria possível escolher dois finais para o capítulo da novela. Mas quem bancaria? Houve uma outra armadilha: em vez de criar apps para o Ginga, muitas empresas escolheram criar apps para os sistemas operacionais das TV mais vendidas no Brasil. Em 2013, o Bradesco já tinha criado um aplicativo bancário para TVs da Samsung, Philips, LG e Google TV. Para o Ginga, necas de pitibiribas (check, usei “necas de pitibiribas” no Tecnocracia).

Em 2020, ainda que existam os testes de Globo e Casas Bahia e que o Ginga continue sendo carregado em TVs novas, a compra pela TV está muito atrás de outro conceito: a compra por apps, seja pelas próprias lojas ou por ambientes muito populares – o Instagram já está investindo nisso, usando aquele conceito similar de “tirar todas as fricções para as pessoas comprarem o que vêem nas fotos e vídeos”, e o próprio WhatsApp se transformou em um dos maiores balcões de negócios virtuais do planeta.

O que aprendemos dos casos 3 e 4? Que a visão de futuro embalada na ficção científica nem sempre é factível. Às vezes, é um delírio — um delírio possível dentro da ficção, mas impraticável na realidade e que acaba saindo muito caro.

***

Amarremos, então, os quatro exemplos. Um dos temas do Tecnocracia é que a vida não é reta. Muitas vezes você acha que sair de A para B vai ser simples, uma linha reta. Às vezes é. Em outras vezes, você faz uma volta gigantesca, passa por C, D e E e,no fim das contas, chega a Y. Todas as áreas da vida são atingidas por esse modelo, então por que a tecnologia, onde as mudanças são ainda mais rápidas dos que os novos empregos que seu/ua filho/a consegue, seria isenta? O WiMax nunca virou uma rede de conectividade em massa pelo descasamento entre o laboratório de desenvolvimento e a divisão de marketing. O Blu-ray teve uma das lições mais dolorosas: você pode ganhar e não levar, já que nem sempre o que está rolando agora segue o que aconteceu no passado. O Second Life e o Ginga carregam o mesmo legado: a ficção científica já acertou muito sobre como vivemos hoje, mas também cometeu erros crassos. É sempre bom lembrar que a expressão começa com o termo “ficção”.

O que é o mercado de tecnologia hoje? Grandes conglomerados sem qualquer regulamentação ganhando centenas de bilhões de dólares para manter todos nós com a cara grudada no celular, seja por plataformizar criminosos com discursos preconceituosos, seja pela exploração de conteúdos que nos deixam raivosos e angustiados, gastando alguns desses bilhões de dólares para mitigar o risco de sanções por parte do governo que ameacem seus reinados. Essas empresas saíram das revistas e cadernos dedicados à tecnologia e passaram a figurar nas sessões policiais ou políticas da imprensa.

Quem imaginaria isso há dez anos? Prever o futuro de um setor que se movimenta tão rápido é uma tarefa ingrata. Os exemplos destrinchados no episódio, principalmente o Second Life, foram projetados em um mundo que ainda não tinha que lidar com as consequências negativas dessa invasão da tecnologia em todas as áreas da nossa vida. Todo mundo só pensava no quanto nossas vidas seriam melhores com uma rede de internet móvel que cobrisse a cidade inteira ou em como poderíamos comprar pelo conforto do nosso sofá (hoje você consegue, mas não pela TV). As cores dessas projeções eram múltiplas, uma paleta meio Almodóvar. Em 2020, dá para cravarmos que o futuro não é tão solar assim — estamos vivendo na paleta Zack Snyder, com aquele filtro constante que torna nossa visão sempre mais séria, deprê. A gente queria um metaverso para interagir, mas acabamos vendo o transbordamento da cultura troll dos chans para a política, os congressos nacionais, as sedes do poder executivo. A gente queria uma forma de encontrar pessoas novas com interesses parecidos aos nossos, fazer novas amizades, descobrir potenciais namorados/as, mas acabamos com a maior máquina de comunicação da história fazendo vista grossa a políticos que usam símbolos nazistas em campanhas oficiais, como fez o Trump há alguns meses.

Acho que temos duas conclusões aqui. A primeira é a mais objetiva: desconfie de quem gosta de fazer palestra pintando como será o mundo de tecnologia daqui a dez anos. Todos, eu inclusive. Se a visão é otimista demais, então a desconfiança tem que ser ainda maior. Há hoje um mercado de palestrantes sobre blockchain para uma tecnologia quase nada implementada. Eu ainda estou esperando alguém me mostrar uma implementação de blockchain que não seja blablabla inovador, não tenha o termo “disrupção” na descrição e que um banco de dados não poderia fazer o mesmo. Já peguei até uma cadeira para esperar. Mesmo os sujeitos que mais estudam isso e que já cravaram algumas previsões erram feio: o Nicholas Negroponte, já citado nesse episódio, escreveu em 1995 um livro chamado A vida digital (do original Being digital). Ali, em meio a tantas projeções corretas, existe muita coisa que passou longe demais do que vivemos hoje. E olha que o cara fundou o prestigioso Media Lab do MIT em 1985, quando eu ainda estava mamando.

A segunda conclusão é sobre a natureza do erro: mais do que só dar risada do que poderia ter sido, é bom a gente entender o que realmente foi. Nesse descasamento entre os casos descritos aqui e o que realmente aconteceu no mercado há um monte de lições de como o mercado de tecnologia opera: sempre pintando cenários enormes, otimistas, bons para todo mundo, que se transformam, sem muito alarde, em situações desiguais, com muito poder na mão de poucas pessoas, sem qualquer regulamentação e muita campanha de relações públicas. As projeções sempre erram porque desconsideram a parte política, a reação de quem vai ser “disruptado”, para usar um termo medonho em voga. “Ah, Guilherme, o blockchain vai acabar com os cartórios”. Claro, bonitinho, os cartórios estão parados esperando essa tecnologia vir para destroçá-los. Mais que permitir, eles estão de banho tomado, cabelo penteado, com um bolinho na mão, esperando. Há outros fatores que determinam o avanço ou não de uma tecnologia. Já falamos aqui no Tecnocracia sobre fintechs: no Brasil, tecnologia bancária só avançou com a benção e pelas mãos dos principais bancos. Se você quiser achar que é só introduzir a tecnologia, ótimo: o museu de novidades ganhará ainda mais espécimes.

Imagem do topo: Arquivo Novak.

  1. A descrição do Stephenson para metaverso: um espaço digital tridimensional que “imita” o mundo real para que humanos, como avatares, interajam uns com os outros e também com softwares autônomos, os famosos robôs.

Edição 20#37

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

2 comentários

  1. Nao conhecia o podcast e posso dizer que é excelente. Já siubscrito.

    Abraço e novamente parabéns pelo trabalho

Do NOT follow this link or you will be banned from the site!