Beziehungen zwischen Deutschland und den Vereinigten Staaten

Die Beziehungen zwischen Deutschland und den Vereinigten Staaten haben sich seit dem 17. Jahrhundert durch Auswanderung von Deutschen in die „Neue Welt“ entwickelt. Sie betreffen eine Vielzahl von Kontakten im kulturellen, wirtschaftlichen, wissenschaftlichen, politischen und militärischen Bereich.

Beziehungen zwischen Deutschland und den Vereinigten Staaten
Vereinigte Staaten Deutschland
USA Deutschland
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.