Daniela Silva, Jennifer Stark e Fernanda Bruno em mesa que abriu o segundo dia de Coda.Br. Foto: Fernando Frazão

O segundo dia do Coda.Br deste ano (26/11) foi aberto com uma discussão urgente e necessária: a transparência e a mediação dos algoritmos. A professora Fernanda Bruno, do MediaLab da UFRJ, ressaltou que os algoritmos são moderadores da nossa experiência. Ela pontuou, porém, que, em uma ‘rede sociotécnica’, ninguém age sozinho.

“Os algoritmos, por serem opacos, são pouco permeáveis quando produzem um efeito enviesado”, disse. “A pergunta que a gente lança é: como permear os algoritmos que estão mediando nossa paisagem? Como que eu posso negociar com a nossa mediação? Não basta abrir a caixa preta e ver o código.”

Jennifer Stark, cofundadora da Foxling, compartilhou uma análise de dados do tempo de espera do Uber em Washington, nos EUA. O que ela descobriu foi que conseguir um carro em áreas com predominância da população afro-americana demora muito mais do que no Centro ou em regiões com mais moradores brancos. Stark discutiu, a partir disso, como os algoritmos podem causar resultados enviesados. “Não precisamos seguir cegamente as recomendações dos algoritmos da Netflix, por exemplo”, lembrou.

 

Colaboração cidadã

Um dos destaques da conferência, Florência Coelho, editora do La Nación Data, apresentou as experiências colaborativas que o jornal argentino lançou para análise de grande quantidade de dados. Por meio da plataforma VozData, os jornalistas conseguiram verificar as gravações do ex-procurador federal assassinado Alberto Nisman, nas quais ele acusa a ex-presidente Cristina Kirchner de acobertar o envolvimento de terroristas iranianos em um atentado. Foram 40 mil áudios analisados, organizados posteriormente em playlists no site do jornal. Essa análise foi realizada por um time de voluntários.

“Os voluntários eram alunos de Jornalismo, de Direito e de Ciências Políticas. Também tinha minha mãe e minha filha. Recrutei outros voluntários pelo meu Facebook e pelo Instagram”, relembrou. “Valeu muito a pena escutar todos esses 40 mil áudios”.

A plataforma também permitiu que a equipe de dados analisasse em diferentes anos os gastos do senado argentino. Para estimular a participação dos cidadãos, o La Nación Data fez rankings dos ‘times’ que mais computavam dados de gastos dos parlamentares.

 

Presente e futuro do jornalismo de dados

O  jornalista computacional da Universidade de Columbia Jonathan Stray deu aos participantes do Coda.Br um gostinho da ferramenta Workbench, ainda em fase beta. O ambiente online combina raspagem, análise e visualização de dados. Não é preciso ter experiência em programação para montar fluxos de trabalho com atualização automática, que podem produzir gráficos publicáveis ou uma live API.

Durante a oficina “Workbench: a ferramenta do jornalista computacional”, Stray usou como exemplo os dados dos tweets do presidente americano, Donald Trump, fazendo instantaneamente um gráfico da frequência das publicações do republicano.

Cada módulo é construído em Python, o que quer dizer que podem ser infinitamente extensíveis. Outros objetivos da ferramenta são aumentar a transparência e facilitar o trabalho dos jornalistas, segundo Stray. “Estamos tentando trazer toda a funcionalidade do Jupyter Notebook, mas com a facilidade de uso de uma planilha de Excel”, disse. “Um dos problemas para o jornalismo de dados é que existem muitas ferramentas, mas elas não se conectam. Então, muitas ferramentas ‘morrem’.”

Os próximos passos para o time que desenvolve o Workbench junto com Stray são consertar os bugs e tornar a ferramenta ainda mais fácil de usar. “Um dos nossos objetivos é tornar a programação mais fácil para jornalistas que não sabem programar muito bem.”

O jornalista americano também participou da mesa de encerramento do Coda.Br, “Qual evolução? Promessas quebradas e cumpridas pelo jornalismo de dados”. Ao lado da espanhola Mar Cabra, Stray listou os desafios que a prática enfrenta atualmente. Entre eles, está a contextualização correta dos dados.

Nesse sentido, ele é crítico ao Wikileaks, que não fez uma boa mediação do conteúdo oferecido.“O Wikileaks é o ex-namorado da internet”, brincou Stray. Ele pontuou ainda que, apesar de vários problemas, o Wikileaks merece crédito por ter sido pioneiro em vazamentos.

Cabra, que liderou a equipe de investigação do Panama Papers, acredita que os documentos obtidos pelo International Consortium of Investigative Journalists (ICIJ) perderão, em breve, o posto de maior vazamento de dados da história do jornalismo. Para ela, a quantidade de informações vazadas será cada vez maior.

No entanto, ela ressaltou que é preciso ter uma perspectiva maior sobre vazamentos, de modo que as reportagens publicadas em diferentes ocasiões possam ser conectadas. “Estamos jogando bingo no jornalismo de dados”, disse, reforçando a necessidade de pensar além.

 

Cuidado com pesquisas eleitorais

O jornalismo usa com frequência as pesquisas eleitorais. Para esmiuçá-las, a CEO do Ibope, Márcia Cavallari, explicou alguns pontos importantes da produção delas. Márcia alertou, por exemplo, para o perigo de se olhar uma pesquisa específica sem compará-la com outras que saíram. Uma pesquisa sozinha não diz nada, segundo a CEO.

Ela também se debruçou sobre o problema de credibilidade que os institutos têm enfrentado em todo o mundo. Não são poucos os candidatos que, a exemplo de Donald Trump nos Estados Unidos, surpreenderam as previsões. “As pessoas estão decidindo cada vez mais tarde”, apontou.

 

Apresentando bem os dados

O editor de infografia da Gazeta do Povo, Guilherme Storck, ensinou algumas formas práticas de elaborar infográficos e mapas. Por meio da ferramenta gratuita Tableau, Storck elaborou formatos diferentes e interessantes de visualização de dados – mostrando como cada um funciona de acordo com a informação que se quer passar.

No workshop “#sexysemservulgar: Como tornar sua história de dados atraente”, a repórter da BBC Brasil Amanda Rossi compartilhou vários exemplos de matérias que conseguem aliar dados com boas histórias. “Hoje em dia nós competimos pela atenção das pessoas. E quando conseguimos que a pessoa clique no conteúdo, precisamos que elas leiam e entendam”, indicou. “Temos que ter essa constante busca para que a informação que vamos apresentar seja interessante, relevante o suficiente para contarmos as informações humanas que os dados destacam.”

 

Outros momentos

O Coda.Br também teve as jam sessions, idealizadas para dar espaço aos participantes para discutirem temas que envolvem o jornalismo de dados. Os temas foram:

  • Modelos de negócio com dados em pesquisa e jornalismo
  • Dados para análises de políticas públicas
  • Alfabetização em dados
  • Dados e fact-checking
  • Dados e viéses
  • Precisa saber programar?

Além disso, o evento contou com as seguintes palestras e workshops:

  • Algoritmos e robôs: aplicações e limites para o jornalismo
  • Datastudio: seu ateliê virtual para visualizações interativas e colaborativas
  • #sexysemservulgar: Como tornar sua história de dados atraente
  • Visualizações interativas com D3
  • Destrinchando as pesquisas eleitorais para analisar seus resultados sem errar
  • Desvendando fake news com o Lemonade
  • Desvendando os dados do IBGE
  • ctrl+c/ctrl+v nunca mais: raspando dados com Google Sheets e outras ferramentas
  • Explorando dados de mobilidade urbana em R
  • Workbench: a ferramenta do jornalista computacional
  • 60 ferramentas para trabalhar com dados em 90 minutos
  • Dados inconsistentes? Expressão regular neles!
  • Visualizando relações e comunidades com Gephi
  • Geojornalismo no hardnews: como virar visualização em mapas rapidamente usando o My Maps
  • Visualização de dados: o básico, o rápido e o prático
  • Como estruturar bases de dados de forma colaborativa
  • Introdução à linha de comando
  • Monitoramento (Social Listening) para Jornalismo e Ciências Sociais
  • Lidando com dados públicos em Python
  • Data Wrangling em R
  • Qual revolução? Promessas quebradas e cumpridas pelo jornalismo de dados.

 

Sobre o Coda.Br

O Coda.Br — realizado pela Escola de Dados, em parceria com o Google News Lab — é o primeiro evento do Brasil focado em jornalismo de dados e reúne os melhores profissionais do mercado para trocar ensinamentos e experiências sobre a área. A conferência conta com a parceria da FAAP e apoio da Abraji, La Nación Data, Knight Center for Journalism in the Americas e Python Software Foundation.