Oque falar sobre a naturalismo no brasil?

1 Resposta

  • Fernanda

     Naturalismo no Brasil,foi um movimento cultural relacionado as artes plásticas, literatura e teatro.Surgiu na França, na segunda metade do século XIX.Os escritores brasileiros abordaram a realidade social brasileira,destacando a vida nos cortiços, o preconceito, a diferenciação social.O principal representante do naturalismo na literatura brasileira foi Aluísio de Azevedo destacando sua clássica obra O cortiço 

Clique aqui para adicionar a sua resposta.