Die USA werden für Deutschland wirtschaftlich immer wichtiger. Das hat mit der wirtschaftlichen Schwäche Chinas zu tun, ist aber auch politisch gewollt.

Hier geht es zum Artikel.
faz.net, 09.05.24