Como ficou a Alemanha após a Primeira Guerra Mundial? Confira!

como ficou a alemanha após a primeira guerra mundial confira!

‌A Primeira Guerra Mundial, finalizada em 1919 com a derrota da Alemanha, acarretou severas consequências para o país europeu. Além da perda de inúmeros militares e civis, a Alemanha foi obrigada a arcar com as disposições do conhecido Tratado de Versalhes, na qual era responsável por pagar valores reparatórios aos países que sofreram quaisquer perdas … Ler mais