Die Deutschen verlieren immer mehr Vertrauen in die Wirtschaftswelt. Nur noch jeder Vierte hält Unternehmen für verantwortungsbewusst, zeigt eine aktuelle Umfrage. Experten sehen den gesellschaftlichen Zusammenhalt in Gefahr.

Hier geht es zum Artikel.
welt.de, 30.12.19