OPINIÃO PÚBLICA - Na sua opinião, o Brasil é um país feminista?
Na sua opinião, o Brasil é um país feminista?
Iniciação de Teatro (Formou-se em 2022)27 de nov.
Não é. Tem muita coisa que precisa melhorar para as mulheres.
Mais do que deveria, mulheres têm mais direito do que o homem mesmo passando pelos mesmos problemas de relacionamento… há leis unilaterais recebendo puxadinho e ferrando com relacionamento.
Se a mulher atiçar o homem para agredir ela, não é considerado violência psicológica. Se o homem xinga a mulher por ficar puto periga de ser violência psicológica.
na minha opinião é tudo de bom e o dobro de ruim, tudo acontece e nada de mudar para melhor, só mi mi mi.
Pelo contrário!
É um país machista e por isso que existe o feminismo para corrigir esse câncer!
Comentários
Postar um comentário