OPINIÃO PÚBLICA - Na sua opinião, o Brasil é um país feminista?


 Na sua opinião, o Brasil é um país feminista?

Não é. Tem muita coisa que precisa melhorar para as mulheres.

Mais do que deveria, mulheres têm mais direito do que o homem mesmo passando pelos mesmos problemas de relacionamento… há leis unilaterais recebendo puxadinho e ferrando com relacionamento.

Se a mulher atiçar o homem para agredir ela, não é considerado violência psicológica. Se o homem xinga a mulher por ficar puto periga de ser violência psicológica.

na minha opinião é tudo de bom e o dobro de ruim, tudo acontece e nada de mudar para melhor, só mi mi mi.

Pelo contrário!

É um país machista e por isso que existe o feminismo para corrigir esse câncer!






Comentários