Pesquisa revela que o Brasil é majoritariamente de direita

Para se compreender as mudanças ocorridas no Brasil nos últimos anos, é preciso entrar em contato direto com o povo brasileiro.

Dito isso, uma pesquisa da Universidade Vanderbilt veio para oficializar o que os brasileiros já sabem: O Brasil é de direita oficialmente.

Segundo a pesquisa, 39% dos brasileiros disseram ser de direita, enquanto apenas 28% se assumiu como esquerda.

Com informação dO Antagonista.