sexta-feira, 13 de novembro de 2015

Lançamento do livro ‘Smart’, do francês Frédéric Martel




Leia trecho do livro ‘Smart’, do francês Frédéric Martel

Autor visitou mais de 50 países para traçar um panorama da internet pelo mundo


Por Frédéric Martel




RIO — O sociólogo e jornalista francês Frédéric Martel — que lança este mês no Brasil “Smart” (Civilização Brasileira) e falou ao GLOBO sobre a obra — discute no capítulo abaixo o fenômeno da curadoria de conteúdos na rede.

O crítico de cultura morreu! Viva a Smart Curation!

Na entrada da sede de Gawker em Nova York, vemos uma grande tela plana com as melhores audiências do site em tempo real. Os artigos são classificados pelo número de vezes que foram vistos, e, como as visitas estão constantemente evoluindo, esse Big Board, como é chamado aqui, não para de piscar o tempo todo. Os sites do grupo Gawker têm em média 100 milhões de visitantes únicos por mês. O equivalente a algo entre três e cinco milhões por dia!

“It’s fucking high” (é realmente muito alto), comenta James Del quando o encontro no último andar de um prédio industrial na Elizabeth Street, no bairro de SoHo. Ele não está se referindo à audiência dos sites, mas à vertiginosa escada! A sua exagerada verticalidade, mesmo em comparação com os padrões nova-iorquinos. Estamos no terceiro andar apenas, mas, sem elevador, os degraus particularmente íngremes tornam a visita de certo modo esportiva.

Dentro dos escritórios, imensos e em open space, o clima é mais horizontal. Há um café, para fazer um break, e, naturalmente, uma mesa de pingue-pongue, símbolo já indispensável de qualquer startup americana. Os empregados usam fones de ouvido, para permanecer em sua bolha, e conversam via chat com os colegas através de boxes de mensagens instantâneas, para agir em coletividade. A no-hierarchy attitude é obrigatória, embora as áreas profissionais estejam cuidadosamente compartimentadas. Um andar é reservado aos jornalistas, aqui chamados de “editors” e às vezes “curators”; outro, ao pessoal do comercial; um terceiro, aos engenheiros, contadores, advogados e profissionais de apoio. Desse modo, os profissionais encarregados do “content” — aproximadamente metade da equipe de mais de trezentos empregados —, os de publicidade e os de dados não se encontram muito, exceto quando se dispõem a galgar os degraus íngremes e “passar o crachá”, com um cartão magnético, na entrada dos outros andares. Já James Del, tendo acesso a todos os andares, sobe e desce constantemente as escadas, o que visivelmente não lhe agrada muito. Ele entrou para a Gawker com 20 anos, ao deixar a New York University, galgando posições, ano após ano, nessa startup hoje em dia incontornável. Aos 28 anos, é atualmente o vice-presidente da Gawker, encarregado da programação e do marketing.

“Nosso modelo é o da ‘curation’. Lemos tudo que é encontrado na internet, e quando uma história nos parece interessante, pegamos uma ideia, uma informação ou um parágrafo, transformamos num artigo e promovemos o buzz”, relata Del ingenuamente. Sentado numa das meeting rooms da Gawker, ele tem seu coffee-mug à frente, sobre uma mesa. Estou na sede de uma das principais mídias “people” dos Estados Unidos, um site divertido e cruel, periodicamente atacado pelos congêneres, que o consideram creepy, trashy, sketchy — repugnante, superficial, perverso e mesmo nojento! Mas o fato é que Del se expressa de maneira perfeitamente profissional, eficiente, sério, quase bem-comportado demais. Tem um jeito desconcertante de aceitar as críticas que chovem sobre a Gawker, seus excessos, sua futilidade, seu voyeurismo, seus ataques borderline contra a vida privada, seu cinismo. Ele já ouviu de tudo; não se abala mais. Um certo distanciamento, a preocupação com a ética editorial, a respeitabilidade, parece dizer... “well, a web não é exatamente isso!” Em compensação, a partilha, a participação, a curadoria, os algoritmos e a recomendação, tudo isso está no cerne da profissão. Del frisa que os próprios leitores do site podem participar de sua redação, graças a uma plataforma especializada, um metablog batizado de Kinja: “Qualquer um pode publicar nele. O que permite o surgimento de novos conteúdos, novos talentos, eliminando de vez a tradicional linha divisória entre autores de artigos e leitores.”

Meio curadora de conteúdos produzidos por outros, meio criadora de artigos originais, tudo isso com muito algoritmo, a Gawker especializou-se no buzz, no cool, no hip, no media-gossip e outras fofocas. Sua base-line, orgulhosamente ostentada no site: Today’s Gossip is Tomorrow’s News. Quando não são meros robôs, seus redatores são cool-hunters, trend-setters e taste-makers: estão sempre em busca do cool, árbitros da moda e fiadores do gosto. “Nosso principal objetivo é testar a serviço da audiência”, resume James Del.

Em 2002, Nick Denton, um jornalista inglês emigrado para Nova York, lança Gawker em seu apartamento no SoHo. À maneira de Bright Lights, Big City, o romance cult de Jay McInerney, Denton se deixa fascinar pela vida privada dos jornalistas do New Yorker e outras revistas do grupo Condé Nast — Fair e Vogue. Talvez por não conseguir entrar para essas redações de “veteranos”, ele cria Gawker para contar o que acontece em seus bastidores. Seus primeiros relatos “confidenciais”, visando seus personagens favoritos — Tina Brown, a dona de Vanity Fair, que também assumiu o comando da New Yorker, ou Anna Wintour, a editora estrela de Vogue — acertam na mosca. O tom já é cínico. Conseguindo infiltrar estagiários na torre Condé Nast, na 4 Times Square, o endereço do grupo na época, ele passa a contar as manias alimentares dos jornalistas, seus dress codes, relatando como usam óculos escuros até nos elevadores. A ênfase é nas intrigas que ocorrem na cafeteria do grupo, concebida pelo arquiteto Frank Gehry, e onde Meryl Streep almoça no filme O diabo veste Prada.

Gawker é desde o início um site cruel, mas se torna muito cruel ao começar a publicar fotos comprometedoras, tiradas em festas privadas, ou divulgando o valor de contratos mirabolantes da indústria do entretenimento. “Temos uma excelente equipe jurídica”, comenta James Del, como quem não quer nada.

O establishment abomina essas práticas antiéticas, mas corre para ler o site. “Não vou dizer que me orgulho disso, mas toda manhã dou uma olhada no Gawker”, reconheceu em entrevista Chris Anderson, fundador de Wired (também pertencente à Condé Nast). E no dia em que entrevistei Tina Brown em sua residência no Upper East Side, ela afirmou não se interessar por essas fofocas, zombando desse tipo de impostura com a expressão “New York fakery” (o lado falso, artificial e gossip de Nova York).

Em sua página oficial de apresentação, Gawker define-se hoje como um one-stop guide to media and pop culture. O site propõe-se a revelar ao grande público informações mais ou menos privadas, furos em off e informações confidenciais sobre as stars, as mídias e a indústria do divertimento. Mas Gawker foi além dessa missão inicial, tornando-se um grupo de mídia, uma rede de sites e mesmo uma verdadeira franquia. O modelo econômico está aí, ao mesmo tempo horizontal e vertical: cada nano site tem sua autonomia, sua identidade, sua verticalidade; mas todas essas audiências de nicho são agregadas horizontalmente quando se trata de vender publicidade. A partir do site principal (gawker.com), os internautas podem atingir uma dezena de subsites e sub-blogs, outros tantos nichos especializados em informação sobre celebridades de Hollywood (Defamer), dados confidenciais da política em Washington (Wonkette), bastidores de Silicon Valley (Valley Wag), segredos da indústria do esporte (Dead Spin) ou do pornô (Fleshbot), televisão (Morning After), jogos de vídeo (Kotaku), Exército (Fortress America), science-fiction, informativos geeks e gadgets eletrônicos (io9, Gizmodo e Lifehacker) ou ainda, em projeto, um míni site politicamente engajado contra o movimento tea-party (a extrema direita americana). Um sub-blog, batizado de Antiviral, especializou-se no fact-checking dos boatos que circulam na web. Um outro, Gawker Review of Books, é dedicado ao mundo editorial e à crítica de livros — como se fosse um autêntico suplemento literário do New Yorker!

E por sinal, a ambição de Nick Denton, o fundador de Gawker, seria, segundo um boato espirituoso, ter doze sites. Tantas quantas são as revistas do grupo Condé Nast.

Abundância. “Nós criamos on-line a cada 48 horas, tantos conteúdos quantos foram criados desde o começo da humanidade até 2003.” Essa constatação, com frequência repetida por Eric Schmidt, o presidente executivo da Google, mostra que atualmente a abundância é uma das características principais da internet. Essa profusão se traduz em fluxo, correntes, streams, incorrendo em risco de verborragia. Quando a cultura, ainda ontem constituída essencialmente de “produtos culturais”, passa do analógico ao digital e se torna uma soma de “serviços culturais”, faz-se indispensável recorrer àqueles que recomendam. Caso contrário, como abrir caminho no catálogo do Spotify, com mais de vinte e cinco milhões de títulos? Como se achar em meio às trezentas horas de vídeos incluídos no YouTube a cada minuto? A oferta é de tal maneira ilimitada que chega a ser vertiginosa. A expressão all you can eat, usada às vezes, é sintomática. Como nos restaurantes chineses onde é oferecido esse tipo de cardápio, pode-se comer à vontade, à saciedade — e às vezes até a indigestão.

À sua maneira, os “curadores” do Gawker pretendem ajudar os internautas a se encontrar nessa massa abissal de informações. Esses new-media critics fazem a triagem, selecionam, orientam. No blog oficial do site, uma palavra aparece com frequência a respeito de Gawker, resumindo sua missão: recomendação. É bem verdade que seu jornalismo obedece a um prisma especial — os erros das mídias, as informações confidenciais, os boatos da cidade —, mas prenuncia, segundo James Del, o futuro da internet e da prescrição digital.

Gawker faz parte de uma nova geração de pure-players que pretende revolucionar o jornalismo, voltando-se em grande medida para a informação viral: Buzzfeed, Vox, Vice, The Daily Beast, Upworthy, Mediaite, Twitchy, Dose, GivesMeHope, omg Facts, Reddit, Mashable ou, em outra escala, o Huffington Post e Slate. Como previra — com ou sem razão — Eric Schmidt, as mídias tornam-se agregadores, filtros, content providers, voltados mais para a curation e a validation, para garantir a credibilidade da informação, do que para a reportagem original. Muitas vezes, os jornalistas são substituídos por curadores, data analysts, data scientists ou Chief Aggregators of Viral Content e Chief Trend Hunters. Às vezes, são simplesmente os algoritmos que fazem o trabalho dos seres humanos. Em certos casos, como Dose, GivesMeHope e omg Facts, três sites do serial-empreendedor Emerson Spartz, as principais inovações de mídia não dizem respeito tanto aos conteúdos reproduzidos, mas à maneira de selecioná-los entre os artigos escritos por outros, de “curadorializá-los” com nova embalagem, para em seguida promovê-los nas redes sociais. Essa “canibalização” também é a chave do sucesso de Gawker.

Bill Keller, ex-diretor do New York Times, fez esse comentário assassino a respeito das novas mídias em geral e do Huffington Post em particular, por ter “descoberto que, juntando fofocas sobre estrelas, vídeos de gatinhos fofos, blogs assinados por jornalistas trabalhando como voluntários e informações tiradas de outras publicações, com o acréscimo de uma certa tonalidade de esquerda, milhões de pessoas leriam esse site”. Arianna Huffington, a “rainha da colagem”, visada no comentário, respondeu indiretamente em seu próprio jornal, o New York Times: “Eu não matei os jornais, darling. Foram as novas tecnologias.”

As técnicas de curadoria ou colagem variam, mas em geral visam a favorecer a viralidade, que condiciona a audiência e, logo, as receitas publicitárias. Os jornalistas do New York Times, não obstante as observações de Bill Keller, já absorveram esses impositivos da web: mudam os títulos das matérias para serem mais facilmente lidas pelos robôs da Google, integram links e palavras-chave a seus textos, para melhor cadastramento, e recorrem aos serviços de profissionais da viralidade para aumentar a circulação de suas mensagens nas redes sociais.

Em certas redações, os webjornalistas aprendem a escrever em frases curtas, usando cada vez mais pontos e cada vez menos vírgulas. Ponto e vírgula e dois pontos, explica Emerson Spartz, são praticamente proibidos! Os redatores em toda parte adotam as chamadas técnicas de seo, ou Search Engine Optimization, para facilitar a leitura dos conteúdos pelos motores de busca. Um título que contenha palavras-chave (escolhidas com uma ferramenta de otimização de palavras-chave), por exemplo, é mais bem indexado pelos robôs, assim como um artigo com muitos links. Um título redigido em forma de hipérboles, com particípios passados e terminando em preposições, pode tornar-se viral mais rapidamente. Um título contando uma story é ainda melhor. No Dose, não faltam listas e títulos catchy; no Upworthy, recorre-se a títulos teasing, com hashtags que dão água na boca do leitor; no Gawker, os internautas são estimulados a compartilhar os conteúdos nas redes sociais; no Reddit, são destacadas fotos provocadoras. Todas essas técnicas destinam-se a agradar às linhas do Twitter, ao algoritmo do Google e ao newsfeed de Facebook. (O tráfego de sites como Gawker, MuggleNet, omg Facts e GivesMeHope depende, em grande medida, do tráfego gerado pelo Facebook).

Esses segredinhos dos títulos e da indexação escoram-se no trabalho humano. Mas é possível ir ainda mais longe, confiando essas tarefas a robôs. No Mediaite, um algoritmo reúne os conteúdos de 1.500 mídias toda manhã, e uma vez “curadorializados” eles são oferecidos aos leitores. No Reddit, um algoritmo compila automaticamente as curtidas, os votos e as preferências dos internautas, determinando em consequência a página de abertura do site. No Gawker, explica-me James Del, os comentários dos internautas são selecionados por um novo algoritmo, graciosamente batizado de Powwow, que organiza a conversa sem a interferência humana. Às vezes, como acontece com omg Facts e Dose, é usado inclusive um algoritmo de Headline Testing: ao ser escrito um artigo, ele é oferecido com diferentes títulos em cerca de vinte posts e plataformas, repartidos ao acaso. O algoritmo de Headline Testing compara então a viralidade dos artigos, o número de cliques e a rapidez de difusão. Depois de algumas horas, todos os títulos do artigo são automaticamente modificados em todos os posts, privilegiando o mais viral.

Esses importantes desdobramentos do webjornalismo afetam necessariamente a crítica cultural, que por sua vez também evolui na direção do “curtir”, do blurb e do tweet. Mas existe alguma seriedade em dar opinião sobre um livro ou um filme em 140 caracteres? Quando a recomendação no Twitter torna-se uma espécie de blurb, as pequenas citações favoráveis de jornalistas utilizadas na promoção de um best-seller ou de um blockbuster, voltamos ao grau zero da crítica, consideram vários jornalistas por mim entrevistados. “Twitter de fato é uma mídia concisa”, observa Antonio Martínez Velázquez, blogueiro, hacker e um dos fundadores do site Horizontal na Cidade do México, em seguida matizando: “É possível tuitar links que remetem a artigos longos.”

Mas o fato é que, nas redes sociais, a crítica se aparenta cada vez mais a um slogan publicitário: “The Best Family Film This Year”, “Holiday Classic”, ““Wow!”, “Absolutely Brilliant!”, “Hilarious!” ou o muito frequente “★★★★”. Na internet, é a vitória do “Two Thumbs Up!”, o sistema de avaliação de filmes concebido pelos críticos de cinema Robert Ebert e Gene Siskel no programa At the Movies, da abc. Eles avaliam os filmes com o polegar, dispondo no total de apenas três avaliações possíveis: dois polegares para cima se os dois gostam do filme; dois polegares para baixo se não gostam; e um polegar para cima, outro para baixo, quando estão divididos. Desse modo, o leitor sabe se se trata de um must-see film (um filme a ver obrigatoriamente) ou de um turkey (uma bomba). Depois da morte de Siskel e da aposentadoria de Ebert, o programa foi retomado por dois jornalistas consagrados, um dos quais é ninguém mais, ninguém menos que o crítico titular do New York Times, A. O. Scott. Que agora levanta ou baixa o polegar!

Quando apresento meu crachá na entrada do World Trade Center One (wtc 1), lado Norte, na Vesey Street, o elevador me identifica, levando-me diretamente ao andar onde marquei encontro: “Floor 34”. Para lá acaba de se mudar, na primavera de 2015, o New Yorker, acompanhado de todo o grupo Condé Nast (que inclui a Vogue e Vanity Fair, gq, Wired e o site Reddit).


Para entrar na mais famosa revista nova-iorquina, não é preciso subir os degraus de uma escada, mas se identificar. Construído sobre as ruínas das torres gêmeas destruídas nos atentados de 11 de setembro, o World Trade Center One não está aberto ao público em geral. As obras ainda não foram concluídas. É preciso apresentar a própria identidade antecipadamente, passar por vários controles e ser minuciosamente fotografado.

“O problema das mídias é o da ‘discoverability’”, lança Henry Finder, sentado na sala n° 1, no 34º andar, com vista espetacular para o monumento às vítimas do World Trade Center, o Sul de Manhattan e, ao longe, a Estátua da Liberdade. Redator-chefe do New Yorker, Finder encarna essa revista de elite que defende uma crítica cultural “com princípios”. Seus jornalistas entendem sua missão como a de um gate-keeper, espécie de intermediário ou árbitro. O próprio Finder é um intelectual meio inacessível, ao mesmo tempo sofisticado e low key, que faz da discrição uma arte de viver, mas podendo de repente dar mostra de um humor esfuziante e inesperado. Na gíria americana, poderíamos dizer que ele é book smart — inteligente e muito, muito, muito educado. Não tem conta no Twitter.

“Como dar a conhecer hoje em dia um bom artigo? É do que se trata quando falamos de ‘discoverability’”, repete Finder, usando uma palavra na moda. Ante a abundância de conteúdos na web, a questão do acesso e da seleção parece essencial. Naturalmente, pode-se confiar no acaso: é o que se costuma chamar de serendipidade, ou o fato de encontrar um conteúdo sem tê-lo buscado (a palavra, extraída de um conto persa reproduzido por Voltaire, significa “acaso feliz”). Em sentido inverso, quando se considera que o acaso dificilmente é feliz, é possível fiar-se nos algoritmos e em suas recomendações automáticas. Finalmente, de maneira mais tradicional, caso não se confie nos algoritmos arbitrários pautados pela lei da audiência, é possível confiar nas críticas tradicionais — como as do New Yorker.

O New Yorker de William Shawn, a partir da década de 1950, tinha como missão defender a “Arte” e proteger a “Cultura” — com maiúsculas —, vale dizer, fazer frente aos “bárbaros” que pretendiam abolir as hierarquias culturais entre a cultura “High” e a cultura “Low” e assim enfraquecer as fronteiras entre o gosto e a mediocridade, a elite e as massas, a cultura e o entretenimento. O New Yorker de Pauline Kael, sua célebre crítica de cinema das décadas de 1960 e 1970, preferiu mais adiante — segundo uma receita contraintuitiva que desde então foi responsável pelo sucesso da publicação — levar a sério a cultura popular e escrever de maneira popular sobre a “alta cultura”. O New Yorker de Tina Brown, sua diretora na década de 1990, finalmente se convenceu do caráter suspeito das hierarquias culturais europeias, decidindo embaralhar definitivamente as cartas. A mistura de gêneros tornou-se a regra: foram criticados Metropolitan Museum e Star Wars, Shakespeare e Monty Python, os romances de John Updike e, ao longo de vinte páginas, a fusão aol-Time Warner.

“Lancei uma crônica intitulada ‘Anais da Comunicação’, para acompanhar as grandes transformações dos estúdios, da televisão e particularmente das indústrias de entertainment”, explicou Tina Brown, em entrevista para meu livro Mainstream. “O New Yorker tinha de falar do que as pessoas comentam”, acrescentou, como se fosse uma evidência.

Para Henry Finder, que hoje encarna o New Yorker numa era de desestabilização digital, os bárbaros agora chamam-se click, blurb, algoritmo, recomendações da Amazon, Gawker e, talvez sobretudo, o Gawker Review of Books!

“Os sites com grande tráfego têm cada vez menos críticas. Os sites de baixa audiência limitam-se a críticas de nicho. Por isto é que o New Yorker mantém toda a sua pertinência”, comenta Finder. Ele acredita num jornalismo durável, semelhante a uma long critical tail, uma crítica de tipo “longo curso”, longe da aceleração e do buzz, uma recomendação inscrita na duração. O modelo do New Yorker é virtuoso, no plano editorial e jornalístico, mas na internet tem de enfrentar dois problemas, como qualquer mídia de papel: o primeiro é que as economias de “longo curso” — poucas vendas a curto prazo, mas vendas duráveis e estáveis a longo prazo — não rendem muito dinheiro no fim das contas; o segundo é que o custo de produção de um artigo do New Yorker é astronomicamente maior que um post do Gawker, embora, na melhor das hipóteses, ambos tenham a mesma audiência na internet, gerando receitas publicitárias equivalentes. (Segundo informações confidenciais, os “editores” do Gawker trabalham com frequência como freelancers, com remuneração de uma dezena de dólares por post e acréscimo de eventual bônus em função da audiência do artigo.)

“É cada vez menor o número de críticos, de suplementos literários”, lamenta Finder. “Devemos, portanto, apostar cada vez mais na crítica.” E acrescenta: “Temos de continuar sendo o que somos: é o que nossos leitores esperam e valorizam. Nossos artigos mais lidos muitas vezes são os mais longos. Mas também temos de participar da conversa geral, o que significa estar presentes em todas as plataformas digitais. Em toda parte, mas continuando a ser o New Yorker.”

Os grandes editores tradicionais têm o mesmo sentimento. “Não tenho medo de algoritmo nenhum! Estou disposto a enfrentar qualquer um deles em duelo a qualquer momento!”, garante-me, com vontade de brigar, Jonathan Karp, diretor-presidente da Simon & Schuster, uma das principais editoras americanas. Em seu vasto escritório no n° 1.230 da Avenue of the Americas, em Nova York, Karp se gaba, mostrando os músculos. Mas acabou confessando, pouco mais tarde, ter recomendado a seus editores e autores que intensificassem sua presença nas redes sociais. “Constatamos que o Facebook é uma ferramenta muito eficaz para o boca a boca de um livro”, maravilha-se Karp, como se tivesse descoberto a pólvora! E menciona romances de sua própria editora lançados quase exclusivamente nas redes sociais (por exemplo, We Are Not Ourselves, de Matthew Thomas). No site da Simon & Schuster, os botões para compartilhar, curtir ou retuitar as informações sobre os livros são tão visíveis como no site do Gawker. Quanto ao YouTube, Jonathan Karp confessa que uma equipe especializada da sua editora já está cuidando da questão. A Simon & Schuster está preparada para o “duelo” com a internet.




A crise da função crítica

Se o New Yorker, atualmente com 1,1 milhão de assinantes, não parece muito ameaçado a curto prazo, nem pelos blogs e pelas redes sociais, nem, naturalmente, por sites como Gawker, a crise da função crítica é real.

A recomendação tradicional não desapareceu, mas todos os jornalistas que entrevistei reconhecem que “alguma coisa está acontecendo”. A internet por sua própria natureza induz o fim das hierarquias, a desintermediação, a descentralização, o desaparecimento das legitimidades elitistas — desdobramentos que inevitavelmente afetam a crítica. Entramos numa cultura que se caracteriza por “conversas”, e não mais por argumentos de autoridade, uma cultura na qual a recomendação tornou-se central, mas que ao mesmo tempo fez multiplicar aqueles que recomendam, infinitamente. Na internet, a legitimidade já não depende apenas da condição social, dos diplomas ou conhecimentos adquiridos, como no universo do papel, passando a integrar novos critérios, como a e-reputação, a popularidade, a “comunidade” à qual se pertence, ou a que alguém reúne ao seu redor. O modelo hierárquico top-down da crítica cultural tradicional perdeu o fôlego em toda parte. É a grande disruption das hierarquias.

Uma evolução saudada pelo blogueiro Antonio Martínez Velázquez, entrevistado na Cidade do México: “As mídias tradicionais se afastaram de sua missão e de seu papel social. Deixaram de falar aos cidadãos. A crítica tornou-se cínica, distante e opaca, quase mortífera. Mas a informação realmente quer ser livre! E a explosão das redes sociais, a crescente influência da cultura hacker e os whistleblowers, aqueles que denunciam em nome do bem público, estão redistribuindo as cartas. Uma nova crítica está surgindo, e ela vai questionar o sistema das mídias no seu conjunto.” Entrevistado em Montreal, o diretor geral da Rádio Canadá, Patrick Beauduin, é menos radical, mas também considera que o futuro da crítica vai depender da recomendação: “Um grupo audiovisual como o nosso, daqui a pouco, não será mais um meio de difusão, mas de prescrição. Aquele que aconselha e dá uma opinião. Seremos curadores.” Antonio Martínez Velázquez acredita inclusive que “o novo prescritor cultural é o hacker”. Segundo ele, o hacker passou a desempenhar na cultura web o mesmo papel que ontem era desempenhado pelo black kid ou o gay cool na música disco ou na cultura pop. Ele inventa uma nova cybercultura de ruptura, por ele mesmo fabricada em código — para em seguida derrubar os códigos. O hacker torna-se alguém que influencia e prescreve. Numa palavra: um hipster.

As críticas de filmes não parecem ter hoje a mesma influência que antes na bilheteria, e os suplementos literários já não contribuem necessariamente para aumentar as vendas de livros (diferentes estudos qualitativos sobre a leitura da imprensa mostram que entre 85% e 90% dos leitores sequer abrem o suplemento literário de um diário). Nos Estados Unidos, esses cadernos críticos tendem inclusive a desaparecer, por falta de apoio dos editores, que publicam pouca publicidade, privilegiando acordos financeiros com a Amazon, ditos cooperative agreements. Se os suplementos literários do New York Times e do Wall Street Journal continuam prescrevendo, o mesmo não acontece com as outras publicações. “Book World”, o suplemento do Washington Post, lançado em 1967, deixou de ser um suplemento autônomo do fim de semana em 2009 (sendo incorporado pela seção “Style & Arts” do jornal de papel); “Book Review Section” do Los Angeles Times também foi fundida com a edição normal do jornal em 2007; quanto ao suplemento do San Francisco Chronicle, foi reduzido, em 2006, de seis para quatro páginas.

Na internet e nas redes sociais, “o populismo é o novo modelo do cool; os elitistas são os novos ultrapassados”, previu a jornalista Alexandra Molotkow num artigo do New York Times. Mas o problema é mais profundo, e de certa maneira mais grave. Uma série de mutações fundamentais em andamento pode transformar duradouramente a função crítica: a consagração de uma cultura visual que atenua a força do escrito; o desenvolvimento de medidas precisas de avaliação da audiência que põem a nu a invisibilidade dos críticos; a abundância de internet, requerendo um “filtro”; o “long click”, que força uma redistribuição das cartas; e por fim, as assinaturas culturais ilimitadas, possibilitadas pela ascensão da cloud.

A primeira mutação é a atenuação da distinção entre mídias, o embaralhamento das fronteiras. A aceleração digital traduz-se numa mudança da forma, dos formatos e da temporalidade. Alistair Fairweather, que dirige o site da revista sul-africana Mail & Guardian, explicou-me essa transformação com uma só frase, quando o entrevistei em Johannesburgo: “O engraçado é que somos um semanário, mas na internet nos transformamos num diário.” Qualquer um pode ver também que essa mutação e essa aceleração das mídias têm efeitos múltiplos e contraditórios: os livros transformam-se em breves ensaios; os ensaios, em tribunas livres; as tribunas, em posts de blogs; e os blogs, em tuítes. Na imagem e no som, o rádio transforma-se em podcast, e o podcast, em streaming; a televisão evolui para a tela conectada, a svod ou Netflix; e a mtv, por sua vez, é hoje em dia o YouTube!

Alistair Fairweather também constata que os sites das redes de televisão, das estações de rádio e dos jornais são muito parecidos na web: têm texto, imagens e vídeos. “É como se todas as mídias se fundissem em sua forma na internet”, resume Fairweather. No smartphone, a aproximação é ainda mais perceptível, sinal de uma cultura “que se torna cada vez mais visual”. Segundo Fairweather, que durante muito tempo foi crítico de cinema, esses desdobramentos têm consequências importantes para a crítica cultural. Para começar, o artigo “acabado” está desaparecendo: é constantemente atualizado e corrigido. Depois, se os títulos e as marcas de referência permanecem, os leitores se interessam mais por artigos do que por um jornal inteiro. “O principal é que eles escolhem. Ainda confiam nas marcas, como o Mail & Guardian, mas já não querem ler apenas um jornal.” A força do escrito se desgasta na internet, onde entra em concorrência com outras mídias, outros modos de expressão, outras legitimidades.

A segunda grande mutação é a possibilidade, agora, de conhecer a exata audiência dos artigos. “A mudança mais considerável gerada pela internet nas mídias não é o caráter imediato, nem a queda dos custos, mas a ‘measurability’. O que, na verdade, é assustador para um jornalista tradicional”, explicava Nick Denton, fundador do Gawker (num longo perfil a ele dedicado pelo... New Yorker). Acontece que essas avaliações exatas da audiência tendem a confirmar o que já se pressentia, sem que fosse possível comprová-lo: a pequena quantidade de leitores interessados nas críticas. Agora, cada artigo tendo suas estatísticas de leitura e seu número de páginas vistos, constata-se com perplexidade nas redações a audiência infinitesimal das críticas de dança ou de ópera, e, de maneira mais genérica, das críticas culturais, raramente lidas. Estabelece-se toda uma nova hierarquização da informação, alijando as críticas das páginas de abertura, por sua impopularidade, e tornando-as assim ainda mais invisíveis. (No Gawker e em muitos outros sites, os leitores podem constatar o número de vezes que um artigo foi visto.)

A terceira mutação em andamento, ligada à abundância ilimitada da web, à saturação e às vezes à frustração por ela gerada é a necessidade de “filtros”. No antigo mundo crítico, os jornalistas lidavam com produtos culturais relativamente raros. Eram poucos artistas, poucas novidades, sendo necessário “encontrá-las”. Os lançamentos de filmes e documentários eram limitados a poucas dezenas por mês. Acontece que hoje em dia seu número é decuplicado no YouTube, para não falar das séries de televisão e dos jogos de vídeo, que estão no cerne da inovação criativa. As novidades em música são literalmente infinitas em Spotify, Deezer, iTunes, Apple Music, Music Key (YouTube), Prime Music (Amazon) ou Soundcloud, e ainda em Taringa (Argentina), Xiami (China), MelOn (Coreia), Saavn (Índia), Anghami (países árabes) e o que resta de MySpace (em declínio desde que foi comprado por Rupert Murdoch e depois por Justin Timberlake). Os programas de televisão multiplicaram-se exponencialmente, e qualquer um pode difundir os próprios vídeos diretamente em streaming por Meerkat ou Periscope (que pertence ao Twitter). E cabe esperar que surjam novos autores, autopublicados, em plataformas como Scribd ou o Kindle da Amazon — que talvez sejam o futuro YouTube do livro. Antes mesmo de exercer sua função de recomendação, o crítico precisa, assim, fazer uma triagem nessa oferta ilimitada.

Naturalmente, ele pode optar por ficar fora da cultura digital, mas a maioria das obras atuais e do futuro pode, assim, escapar ao seu alcance. Atendo-se ao “cânone” ocidental, elitista ou acadêmico, ele se privaria de comentar manifestações essenciais da cultura contemporânea. E se decidir resvalar para o digital, recorrerá a funções de “filtragem” antes mesmo de poder exercer sua missão de “recomendação”. Sem tecnologias, não há possibilidade de encontrar — nem possível escolha. Mas recorrer às máquinas já significa resvalar para a nova função crítica.

The Long Click ou o fim da crítica como a conhecemos

A maioria dos gigantes da net recorre atualmente a algoritmos de recomendação para a filtragem da web: Amazon (com Amazon Prime), Facebook (com seu newsfeed pilotado pelo algoritmo EdgeRank), Apple (com iTunes Radio e Apple Music) e Google (com Google Play e Music Key). O algoritmo de recomendação também está no centro dos modelos de serviços culturais ilimitados por streaming, como Netflix no cinema, Spotify, Deezer e Pandora na música, Steam e Twitch nos jogos de vídeo e Scribd ou Oyster no caso do livro. (Cabe notar que esses serviços ilimitados e “independentes” por streaming se escoram na cloud e, o mais das vezes, no Amazon Web Services, a principal cloud, o que popularizou a expressão já em 2006 e democratizou seu uso, solução escolhida, por exemplo, por Netflix... apesar de ser concorrente da Amazon.)

Graças a algoritmos poderosos e constantemente aperfeiçoados pelo comportamento dos usuários — o que se costuma chamar de collaborative filtering —, os sites e aplicativos oferecem aos assinantes sugestões baseadas nas vendas gerais e nas tendências do mercado, mas também nos hábitos personalizados de consumo (é o famoso “Você também vai gostar de” da Amazon).

Ante a mutação anunciada do crítico tradicional, há quem considere que os algoritmos, associados aos big data, serão amanhã os responsáveis pelas recomendações culturais. Poderão inclusive fornecer aos internautas, pelos prognósticos mais otimistas, recomendações que os seres humanos não eram capazes de fazer sem software nem potência de cálculo. Os movimentos de opinião podem ser percebidos, os artistas que começam a despontar são destacados, nichos particulares são descobertos.

Essa revolução foi possibilitada pela invenção do cookie, um miniprograma que permite reconhecer um usuário: os sites usam esse “delator” para guardar na memória o histórico de suas atividades. Essa inovação decisiva, desenvolvida em 1994 por um engenheiro da Nescape, Lou Montulli, permite hoje alimentar a maioria dos algoritmos de personalização. Fala-se de Long Click para resumir essa mutação: ao surfar na internet, simplesmente clicando num conteúdo, curtindo um artigo ou retuitando uma mensagem, estamos contribuindo, sem saber, para alimentar diferentes algoritmos. Estes, por sua vez, conservam os dados do internauta, podendo deduzir seus centros de interesse ou suas preferências de compras on-line. Em troca, os algoritmos permitem uma customization das respostas (sua personalização) e um planejamento publicitário seguro, o que abriu caminho para as recentes e espetaculares inovações da publicidade on-line, do social marketing e dos modelos de real-time bidding.

A publicidade passa atualmente por várias revoluções importantes, que vêm cruzar com o debate sobre a curation: no caso do Google, o anunciante só remunera o motor de busca quando um usuário clica num anúncio ou numa imagem publicitária, do tipo AdSense, AdWords ou DoubleClick. No YouTube, o modelo oscila entre spots conhecidos como pre-rolls, difundidos antes do vídeo gratuito, e stream ads, quando os anúncios são misturados aos conteúdos. Os modelos de tipo rtb ou real-time bidding são leilões publicitários automatizados em tempo real, por exemplo, com Metamarkets ou MoPub, que pertencem ao Twitter. Paralelamente, a publicidade aumenta sua pertinência nas redes sociais, sendo ao mesmo tempo sincrônica, personalizada, contextualizada e “customizada”. Um anunciante pode “comprar” espaço publicitário, mas também — o que é uma novidade — “difundir” ele próprio seu anúncio ou “criá-lo”. Fala-se então das três formas de publicidade: Ads you buy; Ads you spread; Ads you create. A geolocalização acentua essas mutações, podendo transformar o cookie num espião ainda mais temível, com desempenho decuplicado pela associação com a mobilidade e os aplicativos, dispondo cada smartphone de um identificador perene baseado no número de telefone. Por fim, toda uma corrente da publicidade e dos Native Ads tenta entrar em “conversa” com o internauta. O novo mantra do Twitter, por exemplo, passa a ser: Think content, not advertising. É o modelo típico dos Tweets sponsorized e Promoted tweets. Na publicidade da era numérica, não se deve pensar apenas em termos de anúncios, como na época de Mad Men, mas também em termos de conteúdos e de conversa. Estamos caminhando para uma autêntica publicidade “da conversa”.

Mas os algoritmos de recomendação não são infalíveis. Tampouco são necessariamente “justos”, pois de fato existem distorções de recomendação.

Existe, para começar, o problema de sua manipulação para fins comerciais. Não é muito divulgado, mas, como revelou uma investigação de George Packer no New Yorker, o gigante americano Amazon utiliza no seu site um sistema de destaque batizado — belo eufemismo — de Co-Op. Esses famosos cooperative advertising agreements se traduzem em “recomendações” apresentadas como resultado de critérios objetivos de um algoritmo, quando na realidade não passam de publicidade financiada pelos editores. Essa forma de manipulação, desconhecida dos clientes, talvez explique em parte a relativa ineficácia das sugestões da Amazon, que resultam menos em atos de compra do que se costuma afirmar. (A Amazon não propõe esse sistema de pay-for-display em forma de publicidade, mas negocia duramente com os editores, à margem das leis sobre a concorrência, um percentual adicional sobre as vendas assim realizadas — de 3 a 5% —, podendo o total chegar, num caso como o da Random House, por exemplo, a 53% do preço de um livro.)

Um segundo tipo de distorção da recomendação decorre dos próprios limites da algoritmia. As “máquinas” se saem muito bem em todas as formas de mensuração e agregação, nas estatísticas habituais, no recenseamento dos históricos de consumo, na avaliação da satisfação, no tratamento dos dados de massa etc., mas encontram dificuldades para prever comportamentos e gostos, escolher ou, mais ainda, julgar emoções e sensibilidades. Imbatíveis quando se trata de encontrar o melhor preço de uma passagem de avião ou de um quarto de hotel, elas não são capazes de planejar bem, ao contrário do que às vezes se acredita, a indicação cultural.

Quem ainda não constatou, em Pandora, Spotify ou Deezer, que, tendo ouvido durante muito tempo determinado tipo de música — soul, por exemplo, no meu caso —, o algoritmo tendia a recomendar indefinidamente o mesmo gênero musical (para mim, títulos ininterruptos da Motown, da Atlantic ou de Stax, sem possibilidade de variar na direção do pop ou da música clássica)? O algoritmo não inova, não se aventura, não imagina, não faz associações de ideias, o que o leva inexoravelmente a recomendações cada vez mais acanhadas. (Esse fenômeno de usura, bem conhecido dos econometristas com o nome de “atrito”, tende a reduzir as opções, sobretudo quando o usuário não dá a conhecer sua opinião. Para restabelecer a diversidade, os engenheiros de vez em quando incorporam artificialmente propostas musicais aleatórias, defasadas, para provocar a reação do usuário e permitir ao algoritmo renovar-se.)

De maneira geral, os algoritmos não conseguem perceber as expectativas dos usuários que têm gostos ecléticos, chamados multigêneros, ou daqueles que evoluem constantemente. Assim é que alguém pode querer ouvir determinada música, hip hop, por exemplo, de manhã ao acordar, mas preferir pop no trabalho, salsa no volante do carro e por fim “smooth jazz” no quarto, ao se deitar — diferentes situações, sensibilidades, estados de espírito que o algoritmo não sabe avaliar.

O caso da música clássica é ainda mais revelador. Spotify e Deezer são criticados antes de mais nada por sua apresentação caótica dos títulos: é muito difícil ouvir os trechos de uma ópera na ordem certa, as sinfonias de Beethoven em sucessão cronológica. E escolher a interpretação desejada, o solista ou o maestro — Martha Argerich ou Sviatoslav Richter no piano, Furtwängler ou Karajan regendo Wagner —, é uma verdadeira mão de obra. A culpa é dos metadados, não raro apresentados de maneira muito insuficiente, mas também dos algoritmos, que ainda não sabem classificar direito a música clássica ou avaliá-la. “Esses algoritmos não funcionam. Não tratam quantidade suficiente de dados, funcionam por amostragem ou formas de serendipidade. Seus programadores não entendem a singularidade do clássico. E sobretudo, não há curadoria suficiente”, explica-me Klaus Heymann, fundador do portal internacional de música clássica e jazz Naxos (entrevistado em Hong Kong). No caso dos nichos específicos, afirma Heymann, a curadoria será decisiva. E será necessária para a música clássica, como para os outros gêneros, na frase do crítico musical do New Yorker, Alex Ross, uma autêntica “estética e ética do streaming”.

Essas distorções da recomendação também são encontradas no Netflix e na Amazon. Mesmo quando os critérios são refinados, a técnica se aperfeiçoa e os algoritmos começam a “aprender”, os resultados continuam sendo quantitativos, e não qualitativos, e no fim das contas impessoais. Produzem o que costuma ser chamado no jargão de “ruído”, vale dizer, dados e conteúdos não pertinentes. Por um lado, isso decorre do fato de que o data mining — a arte da coleta de dados — funciona com base em amostras, à falta da necessária potência de cálculo para tratar todos os dados coletados. Os resultados são constantemente submetidos a correções. O que torna as recomendações, de proposição já por si complexa, ainda mais precárias. Os “filtros” se aperfeiçoam, as palavras-chave e os metadados são refinados, a agregação automática faz progressos, mas os resultados continuam igualmente decepcionantes, e no fim das contas pouco personalizados — sem carne nem “aura”.

Vem somar-se aqui um outro problema, referente aos limites dos “filtros”. Mesmo quando são deliberadamente escolhidos pelos usuários, os filtros produzem “ruído”. Isto explica, por um lado, o fracasso dos fluxos rss, como no caso do Google Reader, e futuramente o provável esgotamento dos podcasts. Nesses três casos, as recomendações se chocam com a profusão. Por falta de tempo, não é mais humanamente possível consultar todos os conteúdos listados pelos fluxos rss ou oferecidos pelo Google Reader. Os podcasts correm o risco de ter o mesmo destino: qualquer um pode assiná-los gratuitamente, mas ninguém tem mais tempo de ouvi-los à medida que se vão acumulando num iPod ou num smartphone. Seria necessário, assim, acrescentar ao “filtro” original uma nova camada de “recomendação”.

“O problema do Google Reader e dos fluxos rss é a massa de informações”, explica Alistair Fairweather. “No início, parecia muito bom, mas não demorou para sermos afogados pela quantidade. A pertinência diminuía e a abundância tornava-se insuportável. A recomendação permite melhor sair da avalanche de conteúdos. E, paradoxalmente, volta a conferir aos internautas uma função ativa: fazer escolhas, não ser mais passivos. A recomendação pode alimentar as conversas e ajudar a fazer escolhas.”

Resta o imenso campo de análise das distorções de recomendações nas redes sociais. O caso do Facebook, aqui, é revelador. Ao contrário da Google, da Apple e da Amazon, o Facebook é o único dos gigantes da net que não quer vender diretamente conteúdos culturais. Em vez disso, os assinantes do Facebook podem fazer “recomendações” aos “amigos”, e seus parceiros comerciais, “sugestões” baseadas em acordos de marketing (Facebook tem Netflix como cliente privilegiado em matéria de vídeo, Spotify na música, Zynga nos jogos de vídeo, os estúdios Warner, Miramax e Lions Gate no cinema, o Washington Post e Yahoo na informação, Ticketmaster nos concertos e várias outras marcas em matéria de viagens ou restaurantes). Se não verificarem bem seus parâmetros de confidencialidade no Facebook — complexos, numerosos, variáveis, elásticos e infelizmente não raro incompreensíveis —, os usuários de Spotify ou Netflix podem surpreender-se vendo suas playlists musicais ou suas opções de cinéfilo automaticamente postadas em sua conta Facebook, quase à sua revelia. No fim das contas, as redes sociais podem contribuir para recomendar conteúdos ligados a acordos comerciais, já agora com o risco de uma certa confusão entre prescrição e marketing.

Outros desdobramentos recentes no Facebook provocam distorções de recomendação. A exemplo do Google, com seu algoritmo PageRank, o Facebook desenvolveu a partir de 2006 um newsfeed gerenciado pelo algoritmo EdgeRank, que inicialmente utilizava três critérios: a afinidade do usuário, a importância do conteúdo e um fator de tempo. Posteriormente, EdgeRank foi aperfeiçoado, passando a combinar múltiplos critérios, até 100.000 parâmetros constantemente renovados e atualizados. Entre eles, a mobilidade e a geolocalização são cada vez mais levadas em conta, pois metade do bilhão de usuários acessa atualmente o Facebook pelo celular (e metade do seu faturamento também provém da publicidade móvel).

Mais recentemente, o Facebook optou por “editorializar” os conteúdos dos usuários, especialmente as publicações das “Páginas” (geridas por mídias, marcas ou personalidades, com número de seguidores ilimitado), mas também, em certa medida, contas pessoais (limitadas a 5.000 amigos). Agora, quando uma mídia, uma empresa ou um artista posta uma mensagem na sua “Página” do Facebook, o algoritmo só lhe permite atingir um percentual ínfimo dos próprios seguidores (em torno de 5 a 7%). Desse modo, o Facebook limita deliberadamente o alcance dos posts, e, através do seu algoritmo, condiciona a difusão de um conteúdo, seja ao seu buzz inicial (se a mensagem é curtida, compartilhada ou comentada, o algoritmo amplia sua publicação), seja à compra de espaços “patrocinados”. Em outras palavras: para atingir os amigos de sua própria “Página”, alguém que recorra ao Facebook precisa agora comprar publicidade. (Por sua vez, quando os usuários do Facebook “curtem” uma “Página”, acham inocentemente que estão fazendo uma assinatura, quando na verdade estão basicamente alimentando o algoritmo da rede social e seu modelo publicitário, mas não recebem na sua “Timeline” as mensagens da “Página” que curtiram.)

Existe um algoritmo semelhante para YouTube, Google+ e LinkedIn. Em compensação, o Twitter preserva o sistema de publicação que fez o seu sucesso: os tuítes são publicados sem algoritmo, linearmente, em ordem cronológica invertida e em tempo real, mas por quanto tempo?

Essa técnica comercial do Facebook chama a atenção para a insegurança que caracteriza as redes sociais. De que adianta, por exemplo, a um escritor, um editor ou um produtor de cinema construir sua comunidade no Facebook se a empresa de Menlo Park pode, sem aviso prévio, reduzir esse investimento a nada e exigir que ele comece a comprar publicidade para poder atingir os seguidores de sua própria “Página”? O mesmo risco se coloca a médio prazo no que diz respeito à publicação de conteúdos em Instagram, Pinterest, Path, Tumblr, Snapchat, Meerkat, Periscope, Vine etc. No fim das contas, as mídias, as indústrias culturais, as empresas e todo aquele que quiser aumentar a visibilidade de seus conteúdos e críticas no Facebook são apanhados na própria armadilha da “lei do clique”: tendo apostado tudo na visibilidade nas redes sociais, eles precisam agora pagar para atingir sua própria comunidade. Com isso, as informações e recomendações que se tornam virais nas redes sociais não são mais necessariamente as que se beneficiaram de um autêntico buzz, das melhores ideias ou de maior criatividade, nem sequer as que são mais bem localizadas pelos algoritmos: às vezes, são apenas as mensagens mais patrocinadas pela compra de espaço.

E há mais. Não é muito divulgado, mas as redes sociais, especialmente o Facebook e o Twitter, usam sistematicamente conteúdos e recomendações dos assinantes para seus estudos, em seguida comercializando-os. Fala-se por exemplo de F-commerce a respeito desse desdobramento de marketing do Facebook. A coisa funciona em duas etapas: por um lado, os algoritmos das redes sociais analisam minuciosamente as conversas dos assinantes, as fotos postadas e os vídeos vistos, a eles incorporando publicidade personalizada, “contextual” e “nativa”. Misturados ao fio das conversas, sorrateiros e também enganadores em sua camuflagem 2.0, às vezes à beira da mistura de gêneros, esses native ads, “tuítes patrocinados” e promoted trends parecem menos intrusivos, ao mesmo tempo rendendo muito dinheiro (várias centenas de milhares de dólares para vinte e quatro horas de exposição no conjunto das contas Twitter nos Estados Unidos, por exemplo). Em seguida, as redes sociais vendem os dados de recomendação dos milhões de mensagens trocadas diariamente pelos usuários. Os anunciantes, assim como os diretores das indústrias criativas, das mídias e das agências de assessoria e avaliação de audiência, estão em busca de dados precisos, em tempo real, sobre os centros de interesse dos consumidores, seus hábitos, os movimentos da opinião pública, muito além dos meros trending topics tornados públicos. No fim das contas, as indústrias culturais, as empresas e as mídias que publicam conteúdos em sua “Página” Facebook devem agora comprar publicidade para atingir sua própria comunidade, para em seguida ser convidadas a pagar de novo, e a preço alto, para obter os resultados dos estudos que elas próprias contribuíram para gerar.

Cabe pensar, creio eu, que as redes sociais vão desempenhar futuramente um papel decisivo na prescrição e na disseminação das informações relativas à cultura, mas é preciso guardar na lembrança todas estas distorções da recomendação.

Smart curation

Se os críticos tradicionais de cultura são uma espécie em extinção, se os algoritmos podem ser distorcidos e de qualquer maneira encontram dificuldade para propor recomendações realmente pertinentes, torna-se necessário inventar uma nova forma de prescrição. É o que decidi chamar, neste livro, de “smart curation”.

Ante o calcanhar de Aquiles da internet — a abundância —, a volta ao modelo tradicional de crítica não é mais pertinente. Feito de seres de carne e osso, intrinsecamente ligado à cultura analógica ou impressa clássica, esse modelo torna-se obsoleto por seu elitismo e sua incapacidade de “filtrar” eficaz e rapidamente a massa de conteúdos acessíveis. E sobretudo, ele propõe uma visão única do “bom gosto”, leva em conta uma quantidade reduzida de critérios e é incapaz de fornecer recomendações variadas em função dos percursos, situações, nichos e “comunidades” culturais. Acontece que hoje em dia, na era da internet e da fragmentação cultural, não pode mais haver uma só crítica universal válida para todos. Existem esferas de gosto; é necessária, assim, uma pluralidade de recomendações.

As internets são descentralizadas, “des-centradas”, plurais, caracterizadas pela desintermediação. E é pouco provável que se possa voltar atrás, e, a um modelo elitista no qual o julgamento é confiado exclusivamente a um pequeno número de críticos, o que já indignava Lucien de Rubempré, em Balzac.

Nesse sentido, a segunda solução, a solução das “máquinas”, estritamente matemática, consistindo em delegar essa prescrição a algoritmos automáticos, tampouco parece eficaz. É por demais imperfeita para ser eficiente.

Já a smart curation representa uma solução alternativa: é uma combinação dos dois modelos, o algoritmo, por um lado, e por outro a curadoria. Trata-se de um “duplo filtro” que permite somar a potência do big data e a intervenção humana, associar máquinas e homens, engenheiros e saltimbancos. Essa curadoria por algoritmos será feita ao mesmo tempo pelos que utilizam as palavras e pelos que se servem dos números.

“O algoritmo pode ajudar a identificar o que é popular, mas não é capaz de dizer por que é popular”, resume Alistair Fairweather. “Ele se fia na massa, na média ou na oposição ‘Gosto/Não gosto’. Na melhor das hipóteses, essa técnica tenta prever que ‘as pessoas que gostaram de tal conteúdo podem gostar de tal outro’ — uma proposição valiosa mas insuficiente.” Para Fairweather, é, portanto, indispensável “ter ao mesmo tempo a ‘big picture’, o quadro apresentado pelas estatísticas, e a ‘small picture’, de uma pessoa informada, com certo nível de conhecimento, que faz escolhas, filtra as informações e dá sua opinião. Não podemos nos contentar com as cinco estrelas de uma boa recomendação da Amazon.”

A smart curation é uma forma de editorialização inteligente, que permite fazer uma triagem, escolher e depois recomendar conteúdos aos leitores. Pode assumir formas variadas, mas eu a definiria essencialmente a partir de três elementos. Trata-se antes de mais nada de uma recomendação que se vale ao mesmo tempo da força da internet e dos algoritmos, mas também do tratamento humano e de uma prescrição personalizada feita por “curadores”. Essa função de duplo filtro é indispensável.

Donde — e temos aqui o segundo ponto — a necessidade de recorrer, para esse segundo filtro de curadoria, a um filtro humano, a um intermediário, uma terceira pessoa. Esse filtro não pode ser ele próprio o produtor do conteúdo, nem o consumidor. Um autor, por exemplo, não pode fazer ele mesmo a sua “curadoria” (embora um autor possa fazer sua promoção e um leitor possa ter seu próprio julgamento). O segundo filtro de curation é portanto uma mediação que precisa de um intermediário.

Aqui, a própria palavra “curadoria” é interessante. Ambivalente, é verdade, ela ainda tem na Europa, assim como nos Estados Unidos, uma conotação elitista que a vincula à museologia e aos museus de arte. No met, no moma ou na National Gallery, um curator é um conservador que apresenta e organiza uma exposição num museu de belas-artes. Nos últimos anos, a palavra foi levada também às cinematecas, aos museus de arte contemporânea e às bibliotecas, sendo afinal retomada pela cultura digital, que a está transformando numa das suas buzz-words.

Por fim, o terceiro elemento, a smart curation faz parte de uma “conversa”. Não se trata de recriar um julgamento hierárquico top-down, pretensamente universal, mas quase sempre arbitrário ou peremptório. Ela deve ser um diálogo que possibilite trocas, idas e vindas, pluralidade de gostos, elaborando-se em diferentes “esferas julgamento”.

Decididamente, a simples “curadoria” é o contrário da agregação proposta pelos algoritmos. Mas seria preciso escolher entre curadoria e agregação? E se as duas fossem combinadas? É preciso defender a exceção cultural1, mas com a força da matemática.

Se a expressão “smart curation” é nova, tendo sido concebida para este livro, já tem por outro lado muitas ilustrações. Tomemos por exemplo as “curtidas” do Facebook, os “retuítes” do Twitter, os “pins” do Pinterest, os “little hearts” no dashboard do Tumblr ou os “+1” do Google+: todas essas ferramentas características das redes sociais já fazem parte de uma abordagem do tipo smart curation.

Quando uma pessoa posta uma recomendação cultural no Facebook e ela é “curtida” por seus amigos, o algoritmo leva em conta essas indicações e potencializa a visibilidade do post inicial (o algoritmo utilizado nas “Páginas”, mais ainda que nas contas pessoais, é pautado pelo número de “curtidas” e pelos comentários). A força da matemática interfere, mas no início foi um ser humano que recomendou aos “amigos” um conteúdo cultural que apreciou. Temos portanto uma mistura de “smart” (o algoritmo) e “curadoria” (a apreciação singular de uma pessoa com sua “curtida” ou seu comentário). A “peer recommendation” é decuplicada pela potência matemática.

O social listening e as curated playlists são outro exemplo de smart curation. A técnica existe no Spotify, no Deezer e na Pandora, por exemplo. Os algoritmos dessas plataformas de música por assinatura ilimitada são, como vimos, pouco pertinentes, mais se aparentando a algo “smart”, sem “curation”. Em compensação, quando esses sites mostram on-line as playlists de outros assinantes, já estão fazendo, com esse social listening, uma smart curation. (Spotify foi mais longe ao introduzir no fim de 2014 a função Top Tracks in Your Network, exibindo as playlists dos “amigos” seguidos, constantemente atualizadas.)

James Iovine, fundador, com o rapper Dr. Dre, dos fones de ouvido Beats, promoveu uma refundação do iTunes e da Beats Music e lançou o Apple Music, com base num modelo de smart curation (a Apple comprou a Beats Electronics em 2014 e consultou Iovine para seu novo serviço de música por streaming). Ele estava convencido, com efeito, de que a recomendação por algoritmos, como acontece no Pandora ou Spotify, é insuficiente, sendo necessário combinar os dados recolhidos pelos algoritmos com os julgamentos produzidos por seres humanos, para alcançar resultados mais pertinentes. Donde a criação de uma rede social musical paralelamente à Apple Music.

No setor do rádio, a National Public Radio (NPR) também foi capaz de inovar nesse sentido. O network da rádio americana, independente e sem fins lucrativos (mas não público, ao contrário do que seu nome pode dar a entender), apostou precocemente no digital, para rejuvenescer sua audiência. A npr tem hoje 20 milhões de visitantes únicos no seu site e 27 milhões de podcasts baixados por mês. Resultado: a idade média dos ouvintes da npr por ondas hertzianas é de 52 anos; os que se conectam pela internet ou por podcast têm em média 36 anos — quase vinte anos de diferença! Um aplicativo específico em smartphone oferece uma experiência original de smart curation: o rádio se personaliza inteiramente, seja através dos seus programas, das suas estações locais ou das suas playlists. Poderosos algoritmos, ferramentas de “conversa” e um sistema de “geo-targeting” para as informações locais garantem uma grande fluidez dos programas, sua “customization” e partilha nas redes sociais. A recomendação, no caso, é central, chave do sucesso dos programas difundidos em “syndication” (e até das conferências ted disponíveis no aplicativo). Com isto, a npr também mostra que o podcast é uma tecnologia de transição, e que o streaming móvel, associado a um poderoso aplicativo, a técnicas de recomendação e a algoritmos pertinentes, pode ser o futuro do rádio.

Harry Potter e os Booktubers

Lauren Bird gosta de Harry Potter e de waffles. Com seu físico de adolescente e seus óculos engraçados, ela me lembra os personagens femininos dos romances de J. K. Rowling ou Suzanne Collins. E mal parece ter saído da infância.

Lauren Bird marcou encontro comigo ao lado da nova sede da Google em Nova York, na esquina da 9th Avenue com a 16th Street, em Chelsea. Nas horas vagas, ela pode ser encontrada, não longe dali, nos escritórios do YouTube (que pertence à Google), onde tem acesso a estúdios de montagem para os seus vídeos. Para chegar, é preciso localizar um elevador bem discreto, escondido em frente a um engraxate, dentro do Chelsea Market, entre a 9th e 10th Avenue, e subir ao quinto andar. Lá, quando fazem algum sucesso através do YouTube, muitos blogueiros, como Lauren Bird, podem usar gratuitamente um ecossistema hospitaleiro. Vejo geeks sentados em sofás de couro, uma pequena exposição de arte contemporânea e um grande cartaz de promoção de um livro publicado por um Booktuber. Bird é uma “booktuber”: fala de Harry Potter em breves sequências postadas no YouTube. Num outro espaço, ela se especializou em “Waffle Irons” (máquinas de fazer waffles). Assim como outros podem testar iPhones ou a solidez dos skateboards, Lauren Bird testa essas Waffle Irons para ver se são tão resistentes quanto afirmam seus promotores. Em sua estação, ela tenta cozinhar assim ovos, sushis, pepinos, snickers e até uma abóbora nessa máquina de fazer waffles! O resultado às vezes é surpreendente, e sempre hilariante.

Mais recentemente, Bird, diplomada em cinema pela New York University, entrou para a Harry Potter Alliance, associação de fãs de Harry Potter que se comprometem a melhorar as condições de trabalho dos empregados americanos, como os do McDonald’s ou do Walmart. Os vídeos que ela posta sobre o assunto já tiveram vários milhões de vistas no YouTube.

Também Emerson Spartz, como Lauren Bird, iniciou sua carreira como simples fã de Harry Potter. Aos 12 anos, ele o lançou o MuggleNet, seu primeiro site — hoje uma das principais plataformas para os admiradores dos romances de J. K. Rowling. A célebre romancista convidou Spartz a sua propriedade privada na Escócia, e também apoiou as iniciativas de Lauren Bird e sua Harry Potter Alliance.

O fenômeno dos booktubers, surgido inicialmente na Argentina, na Espanha e no Reino Unido, faz parte claramente da smart curation: jovens leitores ou estudantes falam do seu entusiasmo depois da leitura de um livro, diante da câmera. Com a ajuda de um smartphone, de uma câmera GoPro e, mais recentemente, de Periscope, eles compartilham sua paixão com maior ou menor grau de encenação, simplicidade — e talento.

Existem tantos formatos e gêneros quantos forem os booktubers: seus vídeos podem ser sérios ou pirados, arty ou mais mainstream, como podemos constatar, por exemplo, nas estações YouTube de Christine Riccio, Jesse, Raeleen, Ariel Bissett, Priscilla, Kat O’Keeffe ou Regan.

Às vezes, esses booktubers começam a escrever, sonhando em se tornar também escritores. Os editores, como confirma Jonathan Karp, diretor-presidente da Simon & Schuster, acompanham então suas estações na esperança de descobrir novos talentos. O algoritmo do YouTube também localiza esses vídeos, podendo eventualmente torná-los virais na internet. Ainda que não seja consagrado como “grande escritor”, o booktuber pode de qualquer maneira tornar-se um “brand content”.

Existem ainda outros modelos de smart curation. Podem ser redes sociais voltadas para a leitura e a fan-fiction: Wattpad, por exemplo, é uma espécie de Facebook da literatura. Sediada no Canadá, essa rede social já tem mais de 45 milhões de membros e cerca de 100 milhões de histórias em upload (nela é que a jovem romancista Anne Todd publicou After, uma fan-fiction escrita em smartphone e já lida por doze milhões de pessoas). Além de ser uma interface de publicação para todos, Wattpad, autêntico clube de leitura on-line, também é um espaço de comentários, partilha e, logo, “curadoria”. O algoritmo garante a midiatização das histórias mais populares.

Num outro estilo, um site como The Conversation, desenvolvido na Austrália e no Reino Unido, tem por objetivo, como indica o próprio nome, recriar uma “conversa” escorando-se numa ampla rede de professores universitários e intelectuais. Tendo como baseline Academic rigour, journalistic flair, The Conversation pretende contribuir para o debate de ideias com análises e pontos de vista de pesquisadores. Com isto, permite-lhes conquistar nova visibilidade e, ajudados pelas redes sociais, tornar-se populares.

Por fim, o site GoodReads, comprado pela Amazon em 2013, mistura pesquisas por algoritmo, listas automatizadas de leitura e críticas de livros personalizadas. Nele, os internautas podem formar sua própria biblioteca, anotar seus livros e os dos amigos, enquanto o GoodReads faz suas próprias recomendações. É uma espécie de rede social dedicada aos livros, com 20 milhões de membros que podem ligá-lo ao Facebook ou ao Twitter para aumentar sua “sociabilidade”. (É interessante notar aqui esse novo interesse da Amazon pela curadoria, tanto mais que podemos observá-lo, paralelamente, com a compra de imdb, no cinema, e de Twitch, nos jogos de vídeo, dois sites baseados em avaliações e recomendações. Inicialmente, em 1995-2000, a Amazon desenvolvera suas próprias ferramentas internamente. Uma equipe de cerca de vinte jornalistas, escritores e editores assalariados, provenientes do Village Voice ou do New York Review of Books, redigia notas, fazia entrevistas ou difundia suas recomendações. Mas em 2002 esse departamento “editorial” da Amazon foi fechado, sendo os editores “humanos” definitivamente substituídos pelos algoritmos.)

Na sede da Gawker em Nova York, James Del, o vice-presidente encarregado da programação e do marketing, fala-me do Gawker Review of Books (review.gawker.com). Esse site veio juntar-se à família dos “sub-blogs” lançados a partir do portal principal, tendo por objetivo publicar trechos de novos livros, fazer entrevistas com autores e oferecer recomendações literárias. Embora seja um pure-player digital, chegando às vezes à arrogância nesse sentido, Gawker também sabe apostar numa “velha mídia” como a edição de livros. O volume de negócios do setor — da ordem de trinta bilhões de dólares por ano — não escapou à atenção dos fundadores do site, fascinados pela indústria dos best-sellers. Mas o Gawker Review of Books trata dos “livros” à sua maneira! Para gerar buzz, revela certos deals secretos do mundo editorial, fala de processos por difamação, estende-se sobre a morte deste ou daquele escritor famoso. Os posts procuram criar audiência: “As 50 melhores primeiras frases de romances”; “Como a Harlequin tornou-se a editora mais famosa de romances água com açúcar”; ou ainda, recentemente, um ataque contra o New York Times e sua lista de best-sellers, considerada demasiado “caucasiana” (vale dizer, excessivamente “branca”, sem negros nem latinos). Outras vezes, os artigos do Gawker Review of Books, especialmente as longas entrevistas com autores sendo promovidos, podem ser sérios, pertinentes e de boa feitura. É um dos segredos do Gawker: recrutar os melhores estudantes quando saem dos cursos de creative writing ou das escolas de jornalismo de maior prestígio. E toda semana o site publica sua “Gawker Review Weekend Reading List” como se fosse um respeitável diário à antiga.

Gawker espera criar uma nova “conversa” em torno dos livros, exatamente como Emerson Spartz quis criar uma conversa em torno de Harry Potter ao lançar seu site MuggleNet. Eles já não são os únicos.

Outros pure-players generalistas se interessam pela crítica cultural em geral, e em particular a de livros — o que também representa uma maneira de não deixar esse mercado de nichos entregue aos recém-chegados. É o caso de Slate, que criou em 2014 um suplemento digital de crítica de livros. Por sua vez, sites como o Vice e Politico lançaram recentemente versões em papel, nas quais se fala de livros. No caso de Buzzfeed, conhecido por seus formatos breves e seus posts virais, o site optou por valorizar os formatos longos e as críticas de livros numa seção especializada. “O site Buzzfeed também publica artigos muito longos”, insiste Henry Finder, redator-chefe do New Yorker, como querendo se tranquilizar.

Pois a concorrência é forte. Em toda parte, proliferam sites e novas experiências são concebidas. Nos Estados Unidos, o interessante Literary Hub seleciona diariamente novidades literárias e publica trechos escolhidos de livros. Na Alemanha, Perlentaucher aposta na recomendação, assim como Enobii no Reino Unido. Na França, sites como EntréeLivre, Booknode, Sens Critique e NonFiction se especializaram na crítica on-line, ao passo que BdGest/Bedetheque se concentra nas histórias em quadrinhos. Quanto ao site alemão voltado para o teatro, NachtKritik, é realizado coletivamente à noite, para informar já ao amanhecer sobre as peças vistas na véspera.

As novas revistas literárias “de papel” não ficam para trás, tentando inventar modelos bimídia. Nos Estados Unidos, formatos interessantes foram imaginados por n+1, McSweeney’s, The Believer e Tin House. Publicadas três ou quatro vezes por ano, essas revistas híbridas desenvolveram um modelo econômico baseado na filantropia, na edição de livros e na venda de produtos derivados. Em grande medida, elas acreditam no jornalismo de qualidade, e não apostam nos “cliques”, mas nos “Pulitzers” (para usar a expressão da pesquisadora Angèle Christin). O que não as impede de ter um presença inovadora e original na web.

Existem outros exemplos, para além da esfera cultural. Um site como Techmeme (techmeme.com), especializado em informação tecnológica, consegue muito bem misturar essas abordagens quantitativas e qualitativas. Ele identifica automaticamente conteúdos e hot stories e em seguida, com a ajuda de editores “humanos”, os valida, hierarquiza e reformata. Pearltrees, ferramenta on-line de “curadoria colaborativa”, tem um objetivo semelhante. Outros serviços, como Storyful, Vocativ, Dataminr e ReCode, oferecem modelos mistos associando jornalismo “de dados” e recomendação, com intervenção, ao lado dos redatores tradicionais, de analistas de dados chamados de data analysts ou Chief Content Officers. Quanto à startup especializada Outbrain, oferece aos clientes de mídias em “b2b” (business de empresas a empresas) soluções adaptadas aos sites para localizar os melhores artigos, vale dizer, os que sejam capazes de lhes proporcionar maior audiência, mas acrescentando uma dimensão linguística e geográfica.

Por fim, numa dimensão mais anedótica, podemos citar a iniciativa de Mark Zuckerberg, o dono do Facebook, que lançou em 2015 uma Page voltada para suas leituras. Ele tomou a decisão de ler um livro de duas em duas semanas e postar sua opinião nessa conta Facebook. O Gawker Review of Books, constatando que a página em questão era pouco atualizada, censurou seu diletantismo num post insidiosamente intitulado “Mark Zuckerberg Is Not Oprah”. Entramos na “era das mini-Oprah”, comentou por sua vez o New Yorker, referindo-se a esses pequenos militantes da recomendação, em comparação com a grande sacerdotisa literária que Oprah Winfrey foi por muito tempo nos Estados Unidos. Uma bela frase feita, que talvez ressoe como o espírito da época.

A era das mini-Oprah

A recepção é do tipo invitation only. Henry Finder recebe em seu belo apartamento em Tribeca para uma Book Party. Estão presentes alguns dos maiores jornalistas nova-iorquinos, intelectuais e editores. Os hipsters, startupers e “barbares” estão pouco representados. Houve quem dissesse que os salgadinhos foram feitos por um chef com estrelas no Guia Michelin; que as garçonetes vão concorrer ao título de Miss América; que o livro lançado nessa oportunidade, assinado por um professor da Universidade de Princeton, é o melhor do ano. Ao erguer sua taça de Mojito, temperada com pimenta vermelha fresca, em homenagem ao autor, Finder faz um discurso, sutil e irônico, cheio de referências a Henry James! Uma Book Party sofisticada, mas me parecendo de outras épocas. Todo sorridente, Finder explica-me: nessa noite, o livro em questão — um Note Book — é “uma curiosa coleção de poemas e miniensaios inicialmente postados no Facebook!”

Editores, jornalistas, autores: são muitos, nos Estados Unidos, os que não têm medo da internet nem ficam impressionados com os algoritmos ou as redes sociais. Eles já fazem parte de sua vida, mesmo quando dão a entender o contrário e não falam muito do assunto. “Com certeza teremos na internet muitas vozes novas falando de livros, fazendo críticas, dando sua opinião. É simplesmente formidável”, diz-me Ken Auletta, o famoso crítico de mídia do New Yorker, acrescentando: “Antes, tínhamos o boca a boca, e agora temos as ‘curtidas’ e os ‘links’. O que é ótimo!”

Uma volta atrás é impossível: Ken Auletta e Henry Finder o sabem perfeitamente. Auletta apenas acrescenta uma ressalva quando o entrevisto sobre a curadoria e os algoritmos: “Não existe fórmula mágica para ter sucesso na internet.” Com seus artigos de dezenas de páginas e outras tantas entrevistas sobre a indústria da mídia, do entretenimento e da internet, Ken Auletta é um dos veteranos do jornalismo americano. Sabe que não precisa provar mais nada. Pois se se trata de algoritmos, ele também está disposto a fazer apostas e enfrentar a modernidade em duelo. Ao deixar seu grande apartamento no Upper East Side, como eu lhe pergunte, por provocação, se acha que pode acabar surgindo “um algoritmo Auletta”, ele responde sem hesitar: “Não!” Mas acaba reconhecendo que, a longo prazo, não sabe... e que, de qualquer maneira, estará morto.

New Yorker versus Gawker: poderia resumir-se assim o combate de titãs que se trava ante nossos olhos. A crítica cultural, preocupada com o futuro da imprensa e do livro de papel, prepara-se para novas batalhas. “A revolução digital das mídias é uma guerra de cem anos. Estamos apenas no começo”, prognostica James Del, do Gawker. Ele considera que as interseções entre as mídias e seu público, entre os autores e os leitores, vão mudar fundamentalmente nos próximos anos. As conversas, o “envolvimento”, os curadores serão essenciais. E o algoritmo vai-se tornar a pedra angular desse futuro. (Para não insultar o futuro e conquistar uma espécie de respeitabilidade compatível com as expectativas dos anunciantes, a direção do Gawker deixou em compasso de espera alguns dos seus sites: Wonkette, de mídia política, foi revendido, assim como o site pornô Fleshbot; o subsite Oddjack, de jogos e apostas on-line, foi desconectado.)

Compartilho o ponto de vista do diretor do Gawker sobre os algoritmos. Ao contrário da visão dos tecnocéticos a respeito, não acredito que as máquinas uniformizem ou empobreçam a web. Um erro frequente da análise superficial das mutações na internet consiste em ver nos big data e na algoritmia fenômenos de uniformização, homogeneização e “mainstreamização”. As máquinas invariavelmente conduziriam os internautas para os blockbusters, os best-sellers e os hits, para a cultura de massa e o entertainment. Fala-se então de “algoritmos de confinamento” ou “algoritmos viciantes”.

Pode ser verdade, mas não é sistemático. Os algoritmos são ferramentas que dependem de sua programação. Podem levar ao mainstream; podem estar vinculados a contratos publicitários; podem, em sentido inverso, conduzir a nichos, à world music, ao cinema mundial, à literatura de vanguarda ou à arte mais contemporânea. Depende dos critérios e parâmetros estabelecidos.

E sobretudo, com os progressos da algoritmia, as máquinas poderão aperfeiçoar seu desempenho, especializar-se e se adaptar aos centros de interesse mais complexos dos consumidores. Levarão em conta as diferentes sensibilidades, as nuances. O verdadeiro risco, portanto, não é tanto o mainstream, mas a compartimentalização em nichos herméticos, sem interseções nem interações. Em vez de impor o gosto das massas, as máquinas tendem a enfeixar o usuário na sua “bolha”, a fornecer-lhe apenas o que ele já consome e a fortalecer o vínculo com uma comunidade a que já pertença. Não se trata tanto, assim, de um processo de uniformização, mas, pelo contrário, de distinção e diferenciação. O que pode levar, na pior das hipóteses, à atomização e à proliferação de nichos herméticos; e, na melhor das hipóteses, à fragmentação feliz ou à diversidade. O algoritmo não é inimigo da exceção cultural, podendo inclusive ser uma de suas ferramentas.

Com a recomendação, a assinatura, o algoritmo, o crowdfunding e as novas formas de copyright, a necessidade de uma “smart curation” de fato surge como um dos desdobramentos de fundo da cultura na era da digital. A cultura, que era um “produto cultural”, está se transformando num “serviço” em que o “content” pode ser reproduzido em todos os suportes e todas as plataformas. Resta apenas criar a conversa para que se fale dele.

É o que fazem os jovens do Gawker, os Booktubers e inúmeras novas mini-Oprah. E, como eles, não acredito que seja possível escapar aos algoritmos, voltar atrás e se enfeixar no mundo da crítica à antiga.

Entretanto, como Henry Finder, Ken Auletta e Jonathan Karp, tampouco acredito que fosse possível satisfazer-se com um mundo em que todos os conteúdos culturais dependessem dos algoritmos. Os robôs não tomarão o poder aos jornalistas. A máquina não será o futuro da crítica.

A “smart curation” pode permitir a reconciliação desses dois mundos. Pode até tornar-se uma das novas batalhas da internet e um meio de promover a “disrupção dos disruptores”. Muitas mídias novas ou tradicionais já estão interessadas na questão, experimentando ferramentas de algoritmo incríveis e até inverossímeis, que combinam a potência matemática com o julgamento humano. Na esfera acadêmica, programas de pesquisa sobre a “smart curation” vão reunir pesquisadores de ciências sociais, engenheiros de algoritmia e críticos culturais universitários. Finalmente, inúmeras startups também trabalham nesses “duplos filtros”, recolhendo investimentos e recrutando sem parar.

Uma delas está para se instalar na 5th Avenue, um dos endereços mais prestigiados em Nova York. Seu nome: Gawker. “Vamos nos mudar neste verão: The Fifth Avenue! Yeah!”, exclama James Del, feliz com a força simbólica da iniciativa. É David a ponto de vencer Golias. O outsider feliz por entrar para o establishment. E para deixar bem claras a ambição e a success story de sua startup, agora adulta, ele acrescenta: “E dessa vez teremos um elevador.”

Nenhum comentário:

Postar um comentário