Zitat:
Zitat von Schwarzfahrer
Verstehe ich richtig: die USA und England haben die Aufklärung des Islam verhindert? Empfinden das die islamischen Aufklärer, die teilweise vor Todesfatwas fliehen müssen, auch so? Woher kommt dieser Drang, fast alles, was in der Welt schief läuft, auf das Konto des Westens, speziell der USA zu schreiben? Das hat so ein Beigeschmack "die armen Muslime können nichts für die Scharia, sie sind nur Opfer der USA".
Ja, die Industrieländer stützen viele arabische Diktaturen, (oft aus ethisch höchst fragwürdigen Motiven), aber diese sind nicht die alleinigen Hüter eines konservativen Islams. Der arabische Frühling hat in den meisten Ländern die Fundamentalisten hochgespült auch in Ländern, wo das zuvor von (westlich gestützten) Diktaturen relativ klein gehalten wurde. Iran war auch unter dem USA-hörigen Schah religiös offener als danach, ohne USA-Einfluß. Der konservative Islam ist leider tief in den meisten islamischen Ländern verwurzelt. Indonesien ist sicher ein gutes Gegenbeispiel, hat aber offenbar wenig Vorbildwirkung.
|
Du verwendest einen rhetorischen Trick: Zuerst sagst Du etwas, das offensichtlich falsch ist. Danach nennst Du das Gegenteil, und der Leser folgert, dass dies richtig sein müsse. Es kann aber beides falsch sein und ist es auch.
Die USA haben
nicht die Aufklärung in der islamischen Welt verhindert. Es ist auch nicht alles Elend dieser Welt auf das Konto der USA zu schreiben. Sie haben aber eine Mitschuld an den politischen Verhältnissen in der islamischen Welt.
Die USA haben gemeinsam mit anderen westlichen Ländern erheblichen Anteil daran, dass wir heute in einigen islamischen Ländern fundamtentalreligiöse Diktaturen haben. Diese kommen nämlich vor allem deshalb an die Macht, weil es an einer wirtschaftlich und bildungsmäßig stabilen Mittelschicht fehlt. Der Irak beispielsweise wurde durch Kriege und Wirtschaftsembargos wirtschaftlich komplett ruiniert. Um die Regierungen zu sabotieren, wurden lokale Stammesfürsten und Clans unterstützt, und das bereits vor den Amerikanern von den Briten. Heute wundern wir uns, warum dort jeder gegen jeden Kämpft.
Die "Iraq Oil Company", die erstmals in großem Stil das irakische Öl förderte, lag komplett in ausländischer Hand. Als der Irak mit dem Nachbarland Iran im Krieg lag, verkauften die USA (und viele andere Länder) beiden Seiten Waffen.
Wir machen uns das zu leicht, wenn wir nach einer Jahrhunderte währenden Geschichte von Kolonialisierungen, Kriegen und politischen Einflussnahmen bis in unsere Generation hinein, gleichzeitig eine Verantwortung für die heutige politische und gesellschaftliche Lage leugnen.
Welches der vielen Länder, mit denen die USA seit dem Zweiten Weltkrieg im Krieg lagen, hat je die USA angegriffen? Mir fällt kein einziges ein. Stets ging es um amerikanische "Interessen", also Einfluss und Ressourcen. Oder haben die Amerikaner in Vietnam, im Irak, in Kuwait, in Afghanistan den Weltfrieden verteidigt?
(Sorry für offtopic, ich werde das entsprechend verschieben, sobald sich ein Thread dafür abzeichnet.)