Prêmio iBest.
Com grande orgulho e satisfação soube que, mais uma vez, o site não está entre os finalistas do Prêmio iBest. Continuarei trabalhando para manter o projeto fora da grande final.
Com grande orgulho e satisfação soube que, mais uma vez, o site não está entre os finalistas do Prêmio iBest. Continuarei trabalhando para manter o projeto fora da grande final.
Na melhor tradição do Vale do Silício de pedir desculpas em vez de por favor, no início de agosto a OpenAI disponibilizou um documento ensinando a barrar o robô deles de acessar um site.
Ótimo, mas só agora? Depois de a empresa sugar toda a web para treinar seus grandes modelos de linguagem (todas as versões do GPT)?
Inteligências artificiais gerativas, como o ChatGPT, são, em essência, imitadores descerebrados daquilo que seus donos enfiaram no modelo. Você reúne e processa uma tonelada de conteúdo (em geral, alheio) e o robô vomita frases que aparentam (e, com frequência, fazem) sentido, ainda que incorretas ou fantasiosas.
Quem tem sites não ficou muito contente de ver seu material apropriado por uma empresa com fins lucrativos e ambições megalomaníacas, cujo objetivo é, entre outros, substituir esses mesmos sites por chatbots.
Em alguns sites muito grandes, como Reddit e Twitter, digo, X, o sucesso avassalador do ChatGPT juntou-se à ganância de executivos para servir de bode expiatório à tomada de decisões hostis aos usuários, como fechar APIs públicas e destruir aplicativos de terceiros.
A OpenAI, mais uma vez, muda de postura no momento em que tem a dianteira de uma questão sensível à concorrência do setor de IA — a mesma estratégia do seu lobby em regulação.
No documento, a empresa diz que seu “crawler” (o tipo de robô aspirador de conteúdo alheio) já filtra páginas que contêm informações pessoais identificáveis, como se isso fosse trivial ou garantido. Diz, ainda, que “permitir que o GPTBot acesse seu site pode ajudar os modelos de IA a se tornarem mais precisos e melhorar suas capacidades gerais e segurança”. Ótimo, mas para quem?
Para bloquear o crawler da OpenAI, inclua essas linhas no arquivo robots.txt
na raiz do domínio:
User-agent: GPTBot
Disallow: /
Se a OpenAI vai respeitar isso? Impossível saber. Quem tem dinheiro e mais coisas em jogo não confia na benevolência de Sam Altman e companhia e, em vez disso, convocou uma legião de advogados para levar a discussão à Justiça.
É o caso do maior jornal do mundo, o norte-americano New York Times, que cogita processar a OpenAI.
Certos problemas ainda se resolvem melhor com os bons, velhos e falhos seres humanos.
SEO, o conjunto de técnicas de otimização para sites aparecerem melhor nos resultados de busca do Google, é uma espécie de religião de marqueteiros e tecnocratas.
O deus Google escreve suas linhas tortas, com dicas etéreas ou banais e orientações turvas, que são interpretadas pelos pastores — os ditos “especialistas em SEO” — e aplicadas nos sites dos fiéis, na esperança de que isso se reverta em bênçãos na forma de bons posicionamentos nos índices do buscador.
É um exercício de fé, porque ninguém consegue apontar, com rigor metodológico, a relação de causa e efeito entre SEO e resultados.
Os que creem seguem os preceitos religiosos do Google e apenas acreditam. Se funcionarem, é a prova definitiva de que SEO existe. Se não, o problema é comigo, que escrevi 490 palavras em vez de 500 e repeti a palavra-chave quatro vezes em vez de cinco; que não acreditei o bastante.
O paralelo ficou ainda mais forte na última quarta (9), quando o Gizmodo obteve um comunicado interno da Cnet em que a direção avisava os funcionários que estava apagando milhares de posts antigos para “melhorar o SEO”. A notícia foi confirmada à publicação por um diretor de marketing da Cnet.
Agora, deus Google passou a exigir sacrifícios como condição para despejar sua bondade sobre sites caça-cliques.
A lógica, segundo o comunicado interno, é de que excluir conteúdo antigo que não gera tráfego “envia um sinal ao Google que diz que a Cnet é atual, relevante e digna de ser posicionada acima dos nossos concorrentes nos resultados de pesquisa”.
Nas redes, o Google refutou a estratégia. O que não quer dizer muita coisa, porque o Google não revela o algoritmo de rankeamento do seu buscador e, suspeita-se, sequer o entende por completo. Por isso, não dá para descartar que, mesmo que o Google desaconselhe a prática, sob condições específicas ela possa surtir resultado positivo.
A Cnet, importante lembrar, foi flagrada no início de 2023 publicando textos escritos pelo ChatGPT com erros crassos, apenas para atrair incautos no Google dispostos a clicar em lucrativos anúncios de empréstimos financeiros e cartões de crédito.
A priorização do SEO é o famigerado rabo que abana o cachorro. Mirar boas posições no buscador do Google não deveria, em hipótese alguma, se sobrepor a decisões editoriais, quiçá justificar a destruição do arquivo de publicações (que se dizem) jornalísticas.
No entanto, é o acontece quando a teocracia do SEO, liderada pelo Google, toma de assalto a web. Fundamentalismo tecnológico, robôs acima de seres humanos, pessoas reduzidas a cliques em anúncios.
Quatro funcionários do Google publicaram o rascunho de uma proposta do Web Environment Integrity (WEI), uma nova API para atestar a aplicações web que é um ser humano interagindo do outro lado da tela.
Parece ótimo — afinal, robôs, fraudadores e adulterações em software são problemas reais —, mas como tudo que vem do Google, o diabo está nos detalhes.
O primeiro produto pago do Bluesky é o registro de domínios web (precisa de login), oferecido em parceria com a Namecheap. Faz sentido: domínios são a identidade e a verificação no protocolo AT, usado pelo Bluesky.
No mesmo dia, a empresa Bluesky anunciou uma rodada semente de US$ 8 milhões liderada pela Neo. O dinheiro será usado para o básico: expansão da equipe, despesas de infra e investimentos no protocolo AT e aplicativo oficial. Via Bluesky (2) (em inglês).
Como desgraça pouca é bobagem, o Twitter avisou que em 30 dias vai fechar o TweetDeck para assinantes do Twitter Blue (R$ 42/mês) e começou a forçar a “nova” versão (em testes há dois anos), que é basicamente um Twitter web com colunas — bem pior que a antiga. Via @TwitterSupport/Twitter (em inglês).
O Twitter bloqueou o acesso a perfis e posts sem estar logado. Não houve comunicado algum da mudança, o que pode significar uma de duas coisas: é um erro/problema no site, ou apenas Elon Musk sendo covarde outra vez. (Em janeiro, o Twitter quebrou apps de terceiros sem aviso prévio.) Considerando que dia desses ele estava reclamando da Microsoft supostamente usar dados do Twitter para treinar IAs, talvez seja a segunda opção.
Com essa “mudança”, nossa instância do Nitter, no PC do Manual, quebrou. Vamos acompanhar a situação para ver o que fazer com ela.
Atualização (1º/7, às 8h46): De acordo com Musk, o bloqueio é uma medida temporária devido a “várias centenas de startups” coletando dados do Twitter para treinar inteligências artificiais.
Primeiro a Meta e, agora, o Google, anunciaram que removerão links de publicações jornalísticas canadenses de seus produtos em resposta a uma lei recém-aprovada no país (inteiro teor) que exige que plataformas digitais paguem por links. Ainda que a demanda de fundo (garantir a sustentabilidade do jornalismo) seja legítima, o remédio é um veneno que vai matar o paciente. Ninguém deveria taxar links. É um dos elementos básicos da web. Via CBC, Google (ambos em inglês).
Em junho de 2015, Jonah Peretti, fundador do BuzzFeed, foi à sede do New York Times explicar ao centenário jornal como essa coisa de internet funcionava.
Nas palavras do jornalista Ben Smith, então editor-chefe do braço de notícias do BuzzFeed, Jonah “era um mamífero explicando aos dinossauros como havia evoluído para além deles”.
O trecho ocupa um capítulo em Tráfego: Genialidade, rivalidade e desilusão na corrida bilionária para viralizar (tradução livre; ainda sem edição no Brasil), novo livro de Ben que conta a origem, ascensão e queda do BuzzFeed.
Continue lendo “Tráfego, o ouro de tolo do jornalismo nos anos 2010”
Nos primórdios, a web teve muitas fases bonitas, românticas, em que as coisas eram mais simples e as pessoas online, menos propensas à agressividade, mais inocentes e/ou propensas às coisas boas da vida.
No início dos anos 2000, o aspecto técnico da web também passava por uma fase interessante. De repente, sites deixavam de ser estáticos para se tornarem dinâmicos.
Entre os muitos sistemas daquele período, surgiu, no dia 27 de maio de 2003, um pequeno CMS para blogs chamado WordPress. Era o início de — acho seguro dizer — uma revolução.
Neste episódio do Guia Prático, recebo a Aline Valek para uma conversa animada sobre newsletters, Substack e fazer bagunça na internet. Recentemente, ela escreveu uma newsletter relatando seu desconforto com o Substack. O desconforto vai além — Aline diz que preferia não ter redes sociais —, mas tudo isso acaba sendo meio que necessário para quem, a exemplo dela, vive de fazer coisas legais no ambiente digital.
Na última semana, o Manual do Usuário ganhou um novo apoiador: Christian Sousa. Obrigado!
Gosta do podcast? Se puder, assine o Manual e ajude a mantê-lo no ar. A assinatura custa apenas R$ 9 por mês, ou menos de R$ 0,30 por dia. Se preferir, assine com desconto no plano anual por Pix, a partir de R$ 99.
Música de abertura: Free Jazz, de Steve Combs.
“Os perigos ocultos da web descentralizada”, diz o título de um artigo de opinião na Wired.
A autora, Jessica Maddox, professora assistente de tecnologia de mídia digital na Universidade do Alabama, coloca redes baseadas no protocolo ActivityPub, como o Mastodon, no mesmo balaio de picaretagens como criptomoedas e web3.
É um equívoco. E, se formos nos ater às especificidades, até mesmo “web descentralizada” é algo impreciso, visto que a web (uma rede) é, por definição, descentralizada. Os movimentos que levantam a bandeira da descentralização o fazem como reação a forças de mercado que subverteram essa característica. (E, apesar de se referirem a “web”, em alguns casos nem rodam na web.)
Podemos, e devemos, sempre nos esforçar para construir uma tecnologia melhor, mais acessível e mais inclusiva. Mas a descentralização da web em silos murados parece improvável que atinja esse objetivo.
Por incrível que pareça, o trecho acima não se refere às plataformas da Meta e do Google, mas sim às da “web3” e do Mastodon.
Não acho que Jessica seja ignorante, o que me deixa intrigado com os motivos que levariam alguém entendido a publicar essa desinformação.
A Neeva, startup fundada em 2019 por dois ex-executivos do Google, Sridhar Ramaswamy e Vivek Raghunathan, com a promessa de oferecer um buscador melhor, pago e sem publicidade, anunciou o encerramento do seu buscador pago e sem publicidade no sábado (20).
Depois de uma breve desvio (ou delírio) em criptomoedas, agora a Neeva vai focar em grandes modelos de linguagem (LLM, na sigla em inglês), o “coração” de inteligências artificiais como GPT-4, LLaMA e PaLM 2.
Estratégia estranha, essa de pular de tendência em tendência e, em todos os casos, bater de frente com algumas das maiores empresas do planeta — no caso, Google, Meta e Microsoft.
No Hacker News, Vladimir Prelovac, fundador de outra startup de buscas online sem publicidade, o Kagi, traçou a sua estratégia: aguentar o atual ciclo de empolgação com IAs (que ele prevê será de dois anos) e, quando as pessoas estiverem fartas dos chatbots repletos de publicidade e forem atrás de um buscador melhor, estar lá para antendê-las.
O relato de Vladimir tem muitos “ses”, ou seja, apresenta uma conjuntura impossível de prever a essa altura. Apesar disso, gosto da premissa (“sobreviver aos próximos dois anos e continuar inovando no que importa”) e há o argumento favorável de que pesquisas online são um produto consolidado, com bilhões de usuários, passando por um momento de turbulência, com a pressão multilateral que o Google enfrenta e a emergência dos chatbots como alternativa ao modelo clássico de pesquisa online. Via Neeva (em inglês).
Estou meio obcecado em tornar a web um lugar mais agradável — não num sentido amplo, mas aqui, no meu computador e celular.
Há anos uso e recomendo bloqueadores de anúncios. Eles tornam a web um lugar habitável. Muitos sites entraram numa briga de gato e rato e, de tempos em tempos, conseguem burlar os mecanismos mais simples usados para impedir o carregamento de elementos nocivos.
Quando esses sites ganham, eu perco. A derrota se materializa em lentidão, celulares e computadores quentes e baterias derretendo.
Continue lendo “Bloquear JavaScript em sites selecionados torna a web mais rápida e agradável”
Uma das grandes diferenças entre Mastodon e Bluesky não se nota em comparativos nem em números. É o clima, a atmosfera. Kate Knibbs conseguiu resumir essa sensação no título de um artigo de opinião publicado no início de maio — “Lamento informar que o Bluesky é divertido”.
O Mastodon, ou pelo menos o rincão do fediverso que frequento e que ganhou projeção desde a implosão do Twitter sob o ego de Elon Musk, parece mais sisudo, mais sério. Por vezes, é meio chato. Após anos frequentando e promovendo o Mastodon, acho que detectei uma das pequenas fontes desse mal-estar: a polícia do texto alternativo em imagens.
Continue lendo “A polícia da descrição de imagens na internet é um atraso à causa da inclusão”