Die Taliban haben nach dem Rückzug der westlichen Streitkräfte die Macht in Afghanistan übernommen. Wir fassen die wichtigsten Entwicklungen in einem Newsblog zusammen.
Kabul/Stuttgart - Die radikal-islamischen Taliban haben nach der Einnahme der Hauptstadt Kabul die Macht in Afghanistan übernommen und den Krieg für beendet erklärt. Wie geht es in dem Land weiter?