CORES DA COPA
DOIS MILHÕES DE TWEETS ANALISADOS E MAIS DE 40 MIL
IMAGENS COLETADAS DURANTE A COPA DE 2014
Entre os dias 12 de junho e 13 de julho, o Laboratório de Estudos sobre Imagens e Cibercultura da Universidade Federal do Espírito Santo (Labic/Ufes) extraiu, em tempo real, imagens relacionadas à Copa do Mundo de 2014 publicadas no site de rede social Twitter. Durante esses 32 dias, foi coletado um montante de 42.522 imagens, de 1.979.668 links. Por meio desta pesquisa, o Labic lança o aplicativo Cores da Copa, com visualizações criadas a partir dos aspectos cromáticos e da frequência de compartilhamento das imagens coletadas durante o evento.
Between June 12 and July 13, the Image and Cyberculture Studies Lab (Labic) extracted, in real-time, images related to the 2014 World Cup posted on the social network Twitter. During these 32 days, we collected a total of 42,522 images, from about two million shared links. With this research, Labic launches the app Cores da Copa (Colors of the World Cup), presenting visualizations created using the chromatic data and the frequency of the shared images collected during the event.
VISUALIZAÇÕES - CLIQUE PARA ABRIR
ANÁLISE DAS VISUALIZAÇÕES
As visualizações do projeto Cores da Copa visam destacar certas características dos conteúdos compartilhados em rede durante o Mundial de 2014. Por meio dessas visualizações, é possível ressaltar, de um grande conjunto de conteúdos, aspectos fundamentais a respeito dos modos de compartilhamento de imagens em rede durante o período. Ao analisar essas visualizações, é possível observar, para além da evidente variação cromática, a oscilação do volume de dados compartilhados por dia durante a Copa. Isto evidencia que a repercussão do evento nas redes não ocorreu de modo homogêneo. Ao contrário, em um único dia havia uma enorme quantidade de imagens que variavam radicalmente suas posições na rede. A alta frequência de uma imagem em um dia também não significou sua permanência nos demais. Os compartilhamentos de imagem durante a Copa foram, portanto, regidos a partir da especificidade dos acontecimentos de cada dia.
A partir das análises feitas diariamente no blog do Labic durante o torneio de futebol é ainda possível perceber que as imagens compartilhadas eram essencialmente “meméticas”, isto é, foram criadas para tornarem-se memes (imagens com potencial de se multiplicarem e de se propagarem rapidamente, podendo ser resignificadas a cada compartilhamento). Essas imagens carregam um forte teor emocional, tanto através de suas cores (sejam com bandeiras de nações, cores das seleções, e etc.) quanto de seus conteúdos (jogadores em dor, expressões dos torcedores, entre outras). As imagens da Copa compõem, assim, uma espécie de panorama fotoemotivo. Sobretudo, as visualizações do Cores da Copa apontam para a existência de um ritmo cromático. As imagens pulsam, dançam e saltitam, ainda que, por vezes, fora do compasso. E, raramente, conseguem manter suas frequências constantes. Esse ritmo é sintomático de uma prática de compartilhamento incessante e extremamente veloz - característico de nosso tempo - que faz com que as imagens apareçam, subam e desçam rapidamente nos gráficos, e impede que elas se mantenham em destaque por longos períodos de tempo. Assim, as imagens da rede concorrem entre si, por likes e por compartilhamentos. As imagens no Twitter durante a Copa do Mundo foram dispositivos que lutavam por visibilidade. Por fim, através das visualizações do Cores da Copa, podemos observar os rastros e comportamentos das imagens em rede. E a partir dos vestígios podemos compreender nas imagens seus movimentos, suas aparições e reaparições, sua longevidade.
METODOLOGIA DE COLETA
TERMOS:
Para a criação do aplicativo Cores da Copa, o Laboratório de Estudos sobre Imagens e Cibercultura (Labic) acompanhou e extraiu, no período de 12 de junho a 13 de julho de 2014, imagens compartilhadas no site de rede social Twitter por meio de termos como “copa”, “copa do mundo”, “copa2014”, “brasil2014”, “worldcup”, além das hashflags representantes de cada país (#BRA; #ITA; #POR; #USA). Os jogos de cada dia também foram extraídos por meio de termos próprios de cada partida (#BRAxGER; #BRAxCRO) e por meio de nomes de jogadores icônicos (Messi, Neymar, Robben etc). Já o horário de extração foi das 20h até às 20h do dia seguinte, totalizando 24h de coleta.
COLETA:
A coleta dos tweets publicados nesse período foi a partir de script chamado Marcus, desenvolvido em linguagem Python e em parceria com o cientista da computação André Panisson. Esta ferramenta busca os tweets que contém termos previamente selecionados e os armazena em um banco de dados do MongoDB, instalado em um servidor remoto. A cada 15 minutos, de coleta do script Marcus, outro script, o Crawler, também desenvolvido pelo Labic, entra no banco de dados, coleta os tweets desse período, elimina os links externos ao Twitter (links de outros sites) e elenca os 100 mais frequentes (isto é, os links que mais se repetem durante o período analisado) e postados diretamente no Twitter (pic.twitter.com). Após esse procedimento, o script entra em cada link coletado, salva a imagem a ele anexado e gera uma tabela .csv relacionando url e imagem salva, para análise posterior.
IMAGENS SEMELHANTES:
Ao final do dia de coleta, o script AISI (Automatic Identifier of Similar Images), também desenvolvido no Labic, varre a pasta em que se encontram as imagens salvas e compara os histogramas de cada uma, a fim de identificar imagens similares. Ao identificar essa semelhança entre as imagens (exemplo: uma mesma imagem em diferentes tamanhos ou cortadas), o script as compreende como uma única categoria de imagem e, assim, soma suas frequências de modo a dar sua devida relevância na rede. Sem esse procedimento cada uma dessas imagens “iguais”, mas com tamanhos diferentes, possuiríam menor peso na rede, ainda que tivessem grande ocorrência. Esse procedimento é necessário para levar em consideração as replicações de uma mesma imagem por diversos usuários.
>
METODOLOGIA DE DESENVOLVIMENTO DAS VISUALIZAÇÕES
>
A linguagem utilizada para a criação do aplicativo foi javascript com biblioteca D3 e os dados de entrada eram os arquivos .csv gerados e processados pelo script AISI.
CRÉDITOS