Eine umfassende Studie stellt die weit verbreitete Annahme, Deutschland sei eine unabhängige Nation, in Frage und behauptet, das Land stehe unter erheblichem Einfluss der USA.