Quem fez
Como foi
O Coda 2018 aconteceu nos dias 10 e 11 de novembro na ESPM, em São Paulo, com mais de 60 horas de atividades e de 320 participantes, entre jornalistas, professores, pesquisadores, além de estudantes, comunicadores populares e ativistas.
Esta edição foi desenvolvida pela Escola de Dados em parceria, novamente, com o Google News Lab. O evento também contou com a parceria da ESPM e apoio da Abraji, Volt Data Lab, Knight Center for Journalism in the Americas, Python Software Foundation, Instituto Serrapilheira e CGI.br.
A visualização de dados foi o tema da mesa de abertura, que contou com três convidados de peso, considerados referências internacionais no campo onde atuam: Alberto Cairo da Universidade de Miami, Fernanda Viegas e Daniel Waisberg do Google.
Os workshops do evento foram diversos, com temas como exploração de bases de dados gigantes com SQL, investigações jornalísticas com Open Source Intelligence, técnicas para trabalhar com dados econômicos, produção de mapas com QGIS, entre muitos outros.
No final da tarde do primeiro dia, o evento experimentou o formato “Meu problema com”, com diversos mentores voluntários se dispuseram a conversar e tirar dúvidas reais dos participantes sobre pedidos de Lei de Acesso à Informação, R, Python e Dados Geográficos e SQL.
A manhã do segundo dia do evento começou com um debate sobre os erros e acertos da atuação dos institutos de pesquisas eleitorais durante as eleições. Moderada por Guilherme Jardim, editor de dados do Jota, a mesa teve a participação da cientista política Lara Mesquita e Neale El-Dash, criador do site Polling Data, que agrega pesquisas eleitorais nacionais.
Em 2018, o Coda.Br também foi palco para o anúncio do Prêmio Cláudio Weber Abramo de Jornalismo de Dados, criado pela Escola de Dados com o apoio da Associação Brasileira de Jornalismo Investigativo (Abraji), a fim de reconhecer a qualidade dos trabalhos nesta área publicados no Brasil.
O evento foi encerrado com as tradicionais lightning talks, desta vez com 10 apresentações para mostrar alguns dos melhores trabalhos de jornalismo de dados realizados em 2017 no país.
Programação
Sábado
Mesa: Expandindo as fronteiras do conhecimento: datavis para humanos e máquinas
Com Daniel Waisberg (Goole), Alberto Cairo (University of Miami) e Fernanda Viegas (Google)
Workshops (Sessão I)
– Análise de Texto Jornalístico com IramuteQ (Max Stabile, IBPAD)
– Conheça as bases públicas mais úteis aos jornalistas (Tiago Mali, Abraji)
– Interpretação e Fairness em Machine Learning (Fernanda Viegas, Google)
– Técnicas simples para trabalhar dados econômicos (José Roberto Castro, Nexo Jornal)
– Criando mapas com QGIS – e resolvendo os problemas de sempre (Bernardo Loureiro, Medida SP)
– Jupyter Notebook: O Bloquinho MegaBlaster do Jornalista de Dados (Fernanda Campagnucci, Pátio Digital / SME-SP)
– Iluminando o mar de dados: uma introdução a Python para análise de dados (Caroline Dantas – UFABC)
– Redes de imagens: análise de conteúdo de imagens com visão computacional (André Mintz – UFMG)
Workshops (Sessão II)
– Análise exploratória de dados com Tableau Public (Guilherme Duarte, Tableau)
– Glória aos Dadoxx: analisando dados eleitorais com SQL
(Cecília do Lago, Estadão, e Leonardo Ferreira Leite, Serpro)
– Jornalismo investigativo open-source: ferramentas on-line para responder quem, quando e onde (Adriano Belisário, Escola de Dados, e Bárbara Libório, Aos Fatos)
– Mostre, não conte: o que faz uma visualização de dados efetiva? (Daniel Waisberg – Google)
– Regressão linear? Inferência? Saia do básico pra nunca mais errar em estatística (Renata Hirota, Volt Data Lab)
– Fatiou, passou: filtrando CSVs de gigabytes no terminal (Álvaro Justen, Escola de Dados)
Workshops (Sessão III)
– Análise de Dados: Pandas não morde (Fernando Masanori, Fatec SJC)
– Bonitinho, mas ordinário: As mentiras que contam com #datavis e como não ser enganado (Alberto Cairo, University of Miami)
– O básico que nunca sai de moda: planilhas para análise de dados (Daniel Bramatti, Estadão Dados)
– Sexy sem ser vulgar: como criar narrativas guiadas por dados atraentes para sua audiência (Amanda Rossi, BBC Brasil)
– Transforme seu Google Sheets em um robô de raspagem e largue o Ctrl C+Ctrl V pra sempre (Marco Túlio Pires, Google News Lab)
– Treinamento avançado com Tableau Public (Guilherme Duarte, Tableau)
Roda de conversa
– Meu problema com privacidade e LAI (Camille Moura, Open Knowledge Brasil)
– Meu problema em Dados Geográficos
– Meu problema em R
– Meu problema em Python
– Meu problema em SQL
Mesa: E quando o dado não está disponível?
Com Sarah Cohen (Walter Cronkite School of Journalism), Steffen Kühne (Bayerischer Rundfunk), Jeremy Merrill (ProPublica) e moderação de Rosental Calmon Alves (Knight Center).
Domingo
Mesa: Pesquisas eleitorais: o que elas disseram (e não disseram) nessas eleições?
Com Guilherme Jardim (Jota), Neale El-Dash (Polling Data) e Lara Mesquita (Cepesp/FGV)
Workshops (Sessão I)
– A LAI é o lide: como aproveitar a Lei de Acesso para fazer reportagens (Marina Atoji, Abraji)
– Git(Hub) e projetos colaborativos: os 10 comandos que você precisa saber (Fernanda Scovino, LAB.ipp)
– Mapeamento científico no Google Acadêmico com StArt (Taís Oliveira, UFABC)
– Tá sem ideia de pauta? Google Trends neles (Keila Guimarães, Google)
– Verificando criptograficamente a autenticidade dos e-mails (Jeremy Merrill, ProPublica)
– Inferência estatística para Jornalistas (Guilherme Jardim, Jota)
– R para análise de políticas públicas (Manoel Galdino, Transparência Brasil)
Wokshops (Sessão II)
– Construa seu primeiro bot no Twitter com Python (Pedro Burgos, Impacto.jor)
– Vigilância sanitária dos dados: aprenda a tirar as inconsistências das suas bases com OpenRefine (Marco Túlio Pires, Google News Lab)
– Visualização de dados com D3.js – parte I (Tainá Simões, ?)
– Automatizando tarefas maçantes: um caso prático (Fernando Masanori, Fatec/SJC)
– Bancos de dados de grafos: uma introdução com Neo4J (Nicolle Cysneiros, PyLadies)
– Processamento da Linguagem Natural e Jornalismo (Clarissa Castellã Xavier, UFRGS)
Workshops (Sessão III)
– 80 ferramentas em 90 minutos (Natália Mazotte, Escola de Dados)
– Como se tornar a sua própria “EUquipe” de design interativo (Keila Guimarães, Google)
– Computação Visual em Ciências Sociais e Jornalismo (Tarcízio Silva, IBPAD)
– Descobrindo o SUS: uma análise das bases de dados públicas de saúde usando R (Rodrigo Dantas da Silva, ?)
– Deu match: limpando dados com expressões regulares (Álvaro Justen, Escola de Dados)
– Visualização de dados com D3.js – parte II (Tainá Simões, ?)
Lançamento do Prêmio Cláudio Weber Abramo de Jornalismo de Dados
Lightning talks
Relatos
Você pode ler mais sobre a segunda edição do evento nos seguintes posts: