
Para se compreender as mudanças ocorridas no Brasil nos últimos anos, é preciso entrar em contato direto com o povo brasileiro.
Dito isso, uma pesquisa da Universidade Vanderbilt veio para oficializar o que os brasileiros já sabem: O Brasil é de direita oficialmente.
Segundo a pesquisa, 39% dos brasileiros disseram ser de direita, enquanto apenas 28% se assumiu como esquerda.
Com informação dO Antagonista.