Como ficou os Estados Unidos após a Primeira Guerra Mundial?
Como ficou os Estados Unidos após a Primeira Guerra Mundial? Entenda a fase mais importante para a economia e como isso levou a Grande Depressão, evento que destruiu muitas famílias no país. Até então, os Estados Unidos foi um importante subsidiário da guerra e ficou do lado da tríplice Entente composta por Reino Unido, França … Ler mais