Beziehungen zwischen Deutschland und den Vereinigten Staaten
Die Beziehungen zwischen Deutschland und den Vereinigten Staaten haben sich seit dem 17. Jahrhundert durch Auswanderung von Deutschen in die „Neue Welt“ entwickelt. Sie betreffen eine Vielzahl von Kontakten im kulturellen, wirtschaftlichen, wissenschaftlichen, politischen und militärischen Bereich.
USA | Deutschland |
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.