12. November 2016

Was ist Künstliche Intelligenz und was heißt das für uns?

Wenn Utopie und Dystopie in der Technik zusammenkommen

Künstliche Intelligenz, Machine Learning und Robotik werden die meisten von uns arbeitslos machen und den Rest von uns in extreme Gering- und extreme Hochverdiener spalten.

Nein, das ist nur die vierte Stufe einer industriellen Revolution, von der wir alle in ungeahntem Ausmaß profitieren werden.

Das waren in etwa die zu erwartenden Positionen auf der Littler Konferenz in Berlin letzte Woche zur Frage, welche Herausforderungen Künstliche Intelligenz, Machine Learning und Robotik an unsere Gesellschafts- und speziell die Arbeitsorganisation und Legislative stellen. Wer hat nun Recht, der Pessimist mit seinem Szenario von Arbeitslosigkeit und weiterer gesellschaftlicher Spaltung oder der Fortschrittsoptimist? Nun, die Antwort lautet wie immer: Es kommt darauf an. 

Ganz so harmlos wird die Zukunft wohl nicht aussehen

Es kommt darauf an, wie wir die Techniken auf ihrem wirklich unaufhaltsamen Vormarsch formen und begleiten. Das heißt, welche Technologien werden gesellschaftlich gefördert, wie transparent wird geforscht und entwickelt, wie werden wir und unsere Kinder über Bildung und Information darauf vorbereitet, wie wird unsere Gesetzgebung das einfassen und welche auch ethischen Prinzipien soll der Technik mitgegeben werden?

Was aber ist denn Künstliche Intelligenz und was genau passiert überhaupt gerade auf diesem Feld? Die einfachste Definition von KI ist sicherlich, dass es sich bei KI um ein computerisiertes System handelt, das ein Verhalten zeigt, von welchem gemeinhin angenommen wird, dass es Intelligenz erfordert. Noch etwas detaillierter könnte man ein System als KI kennzeichnen, das in der Lage ist, komplexe Probleme rational zu lösen und/oder angemessene Handlungen ausführt, um seine Ziele in komplexen Umwelten zu erreichen, ganz egal, welche unvorhergesehenen Probleme ihm dabei begegnen. Dabei kann es sich um Systeme handeln, die (1) wie Menschen denken, (2) wie Menschen handeln, (3) rational denken und/oder (4) rational handeln (siehe NSTC: Preparing for the Future of Artificial Intelligence). Begegnen werden uns diese Systeme auf zuvor für Menschen reservierten Feldern wie logisches Denken, Wissenswiedergabe, Planen und Navigieren, Sprachverarbeitung und Wahrnehmung.

Kleine und große KI

Dabei ist generell zwischen der sogenannten "Narrow AI" (NAI) und der "Artificial General Intelligence" (GAI) zu unterscheiden. Bei der NAI handelt es sich um sehr spezifische Künstliche Intelligenz in einem engen Anwendungsgebiet, wie zum Beispiel Übersetzung von Sprachen, automatische Bilderkennung oder autonomes Fahren. In vielen Bereichen kommt NAI heute schon im Alltag zum Einsatz, denken wir an Empfehlungen bei Amazon, das Planen von Reisen, oder Fahrassistenzsysteme. Noch intelligentere Systeme kommen zunehmend in Bereichen wie medizinische Diagnosen, wissenschaftliche Forschung und Bildung zum Einsatz. Zum Beispiel laufen bereits Big-Data-Analysen mit Bilderkennungssoftware, die über im Netz veröffentlichte Bilder von Tieren deren Wanderbewegungen aufzeichnen. Das geht deswegen, weil jedes Tier individuelle Merkmale hat (etwa Narben an Rückenflossen von Walen), welche die Software wieder erkennen kann und weil mehrere Menschen zu anderen Zeiten und an anderen Orten zufällig dieselben Tiere fotografieren und weil jeder dieser Menschen mit ziemlicher Sicherheit sein Bild irgendwo bei Facebook, Instagramm, Tumblr oder Flickr hochlädt.

Was solche Narrow AI jedoch nicht kann, ist die gewonnenen Daten und Analysen auf ein ganz anderes Aktionsfeld auszudehnen und dann dort zu handeln oder zu entscheiden. Oder als einfaches Beispiel: Ein KI-Staubsauger lernt schnell, wie er in der Wohnung navigieren muss, um immer effizienter zu säubern. Dabei kann er sogar mit umgestellten Möbeln, Haustieren und anderen ungeahnten Herausforderungen umgehen, er wird aber nicht automatisch den Arzt rufen und in der Zeit vor dem Eintreffen mit Wiederbelebungsmaßnahmen beginnen, wenn er sein Besitzer kollabiert im Wohnzimmer auffindet. Solche komplexen und Domain übergreifenden Handlungen wären etwas, was wir von Artificial General Intelligence erwarten würden, also etwa von einem freundlichen Terminator.

Von AGI spricht man, wenn ein KI-System offenbar intelligentes Verhalten über das komplette menschliche kognitive Leistungsspektrum hinweg zeigt und dabei mindestens so leistungsfähig wie ein Mensch ist.

Wann sehen wir den ersten Humanoiden?

Was hält die Zukunft der KI bereit? Um solche Fragen zu beantworten, befragen sich die  KI-Forscher untereinander und 80% von ihnen glauben, dass wir letztendlich eine Künstliche Intelligenz erschaffen werden, die der natürlichen des Menschen in nichts nachstehen, sondern ihr eher überlegen sein wird. 50% von ihnen glauben, dass wir im Jahr 2040 soweit sein werden (Preparing for the Future of Artificial Intelligence). Allerdings hat sich die Szene auch in der Vergangenheit immer wieder selbst überschätzt, zum Beispiel hat es rund 40 Jahre länger gedauert, bis ein Computer (Deep Blue im Jahr 1997) einen Menschen im Schach besiegte, als die KI-Forschung in den 1950er Jahren annahm. Die heutige KI-Forschung sieht verschiedene nächste Schritte, die einen Durchbruch in Richtung AGI ankündigen würden:

  • Narrow AI könnte sich durch graduelles Erweitern von spezifischen zu weniger strukturierten Aufgaben langsam der GAI annähern. Als Beispiel noch einmal der KI-Staubsauger, der mit seinen Herausforderungen wächst, irgendwann auch abwäscht, einkauft und den Arzt ruft, wenn nötig.
  • Die im Moment zum Teil sehr verschiedenen KI-Methoden, die jeweils auf bestimmte Aufgaben zugeschnitten sind, könnten zusammenwachsen. Das Entwickeln einer Methode, die eine größere Bandbreite von Aufgaben erfüllen könnte, die heute noch eine Reihe verschiedener Methoden benötigt, wäre solch ein Durchbruch.
  • Extrem schwierige Probleme wie Transfer Learning (übertragbares Lernen) würden gelöst und KI damit würde ausgerüstet, um wirklich intelligent zu werden. Eines der härtesten Probleme ist das Transfer Learning, das einer Maschine erlauben würde, das erlernte auf andere Anwendungsfelder zu übertragen. Zum Beispiel könnte ein System auf solch eine Weise programmiert werden, englische Sprache ins Spanische zu übersetzen, dass es gleich auch noch eigenständig lernt, wie man Chinesisch ins Französische übersetzt oder Gedichte auf Russisch schreibt. 

Spätestens, wenn wir die ersten wirklich intelligenten und nützlichen Roboter sehen, die Menschen im Alltag oder bei der Arbeit bei unspezifischen und unvorhergesehen Problemen helfen, müssen die ethischen und rechtlichen Probleme gelöst sein: Welche Prioritäten haben die Maschinen und wie reagieren sie, wenn sie mit einem Dilemma konfrontiert werden (lieber drei alte Damen gefährden als ein Kind)? Wer ist für Unfälle verantwortlich, ganz gleich wie unwahrscheinlich sie sind? Und welche Verantwortung haben wir gegenüber den Maschinen?

Wie werden wir mit den Maschinen zusammenleben?

Schon sehr bald werden KI-Systeme im Alltag Entscheidungen über Menschen treffen. Das gilt zuerst in Bereichen wie dem Recht und Strafvollzug, wo in den USA bereits daran geforscht wird, wie Entscheidungen zu Bewährungsstrafen automatisiert getroffen werden können. Genauso wird absehbar, dass in der Medizin künftig Diagnosen und mithin Entscheidungen über Behandlungsmethoden und Medikation von Maschinen getroffen werden. In solchen Fällen können Maschinen durch die Sekunden schnelle Verarbeitung von Datenmassen und das Durchspielen zahlloser Szenarien tatsächlich die besseren Entscheidungen treffen. Das heißt aber nicht, dass diese Entscheidungen uns gefallen werden. Es steht also z.B. zur Diskussion, ob und welche Einspruchsrechte wir gegen Entscheidung von KI haben und wie wir diese Rechte ausüben können.

Wie alle technologischen Innovationen werden auf die betroffenen Gesellschaften Kosten und Gewinne zukommen. Wenn wir uns heute das Leben ohne Internet nicht mehr vorstellen können und die heutige Wirtschaft mit ihrer Produktivität gar nicht ohne Computertechnologie zu denken wäre, so trifft das auf die kommenden KI- und Automatisierungswelle erst Recht zu. Und so wie die letzten Zwanzig Jahre Internet uns einen sehr einseitigen Wohlstand (mit einigem an Trickle-Down-Money für die unteren Einkommensbezieher) beschert haben, so droht diese Entwicklung mit einer breiten Automatisierung noch viel mehr.

"Die Menschen sind unser größtes Kapital. Aber wenn Sie mir Maschinen geben, die die Menschen in meinem Betrieb ersetzen, dann werde ich die sofort nehmen und einsetzen." (Jeremy Roth, Geschäftsführer von Littler auf der Konferenz)

In einem Szenario, wo breite Bevölkerungsschichten von ihrer einfachen bis mittelkomplexen Arbeit befreit werden, fallen Lohnsteuern und Sozialversicherungsabgaben einfach weg. Selbst wenn diese Menschen vielleicht durch ein bedingungsloses Einkommen versorgt werden würden, stellt sich die Frage, wie der Staat ohne diese Einnahmen aus Arbeit Bildung, Infrastruktur, Gesundheitssysteme etc. aufrecht erhalten soll.  Man müsste also zum Beispiel Steuern und Sozialabgaben auf die Roboter umlegen. Das jedoch schmälert die Gewinne, die sich die Wirtschaft von der Automatisierung erhoffen. Sogar die letzte Studie aus Obamas White House zum Thema KI fordert in einem fast sozialistischen Ton:

Weil die KI das Potenzial hat, die Bezahlung speziell von gering- bis mittelqualifizierten Tätigkeiten zu eliminieren oder drastisch zu senken, wird die Politik dafür sorgen müssen, dass die monetären Gewinne aus der KI gesellschaftsweit verteilt und dass Ungleichheit als Konsequenz zurückgedrängt anstatt verschärft wird. (Preparing for the Future of Artificial Intelligence, S. 28)

Mal sehen, was Donald Trumps Regierung aus den Empfehlungen des NSTC macht. Und bei all dem haben wir noch gar nicht über Waffen- und Kriegstechnologie gesprochen und welche Folgen KI auf diesem und ähnlichen Feldern wie innere Sicherheit zeigen wird. Und natürlich gibt es daneben viele andere Bereiche wie Sport, Spiele, Liebe etc. Die KI-Automatisierung wird alle unserer Alltagsbereiche umfassen, sie wird die gesamte Menschheit transzendieren. Wie wir als psychisch empfindsame Wesen mit den Maschinen zurecht kommen, wenn sie den Takt des Lebens vorgeben werden, das kann ich mir heute gar nicht ausmalen.


Als Grundlage des Artikels diente das NSTC-Memo PREPARING FOR THE FUTURE OF ARTIFICIAL INTELLIGENCE (PDF-Link) vom Oktober 2016.

Das passt dazu:

Kommentare:

  1. Sehr umfangreicher und "gewichtiger" Artikel.

    ich möchte etwas einwerfen, was Du vielleicht belächeln magst.
    Wie störanfällig werden denn diese Technologien sein?!
    Schon heute, im VORZEITALTER dieser Dinge erlebt fast jeder, daß Software nicht so problemlos funktioniert wie angedacht.
    Es gibt das Störfeld Ressource. Es gibt das Störfeld: "Fehlerhafte" Software.
    Ich kann mir als Programmierer nicht vorstellen, daß es autarke, vollkommen störunanfällige Software gibt.
    Wir kriegen das ja jetzt schon nicht hin, in der "Steinzeit" des Ganzen.

    What's your take?

    Gerhard

    AntwortenLöschen
    Antworten
    1. Das ist eine wirklich wichtige Frage! Da es sich bei KI um Machine Learning handelt, also einen pragmatischen "Bildungsprozess" an und in der Umwelt, werden Fehler oder unerwünschte Folgen anhand der zugrundeliegenden Prinzipien vermieden und der Output sukzessive perfektioniert.

      Aber: Sowohl bei automatisierten Big-Data-Analysen als auch beim Machine Learning (da gibt es ja viele Schnittmengen) kommt es eben auf die zugrundeliegenden Prinzipien oder Algorithmen an. Und die können durchaus unzureichend sein und unerwünschte Folgen nach sich ziehen. Arbeitsgruppen wie das NSTC und in der KI-Forschung sehen sich ja genau solche Probleme an und geben Empfehlungen wie "Offene Forschung und Entwicklung" statt "abgeschottete kommerzielle Entwicklung" oder "fachübergreifende Diversität in den Entwicklungsteams" (z.B. Geschlecht, Herkunft, Spezialgebiet), um zu verhindern, dass am Ende "weiße männliche Terminatoren" herauskommen. Das alles ist jetzt sehr auf dem gesellschaftlichen Level, da ich mich auf dem technischen nicht besonders auskenne. Aber wenn du Gedanken hast, wie man das ganze auch technisch "safe and future proof" machen kann, dann sag Bescheid.

      Wie gesagt: Die zugrunde liegenden Prinzipien scheinen bei Machine Learning und KI das Wichtigste zu sein. Du kennst ja Asimovs Gesetze der Robotik, so etwas – nur eben (bei NAI) spezifischer aufs Anwendungsgebiet ausgerichtet oder für GAI modernisiert – stelle ich mir da vor:


      1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

      2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

      3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


      Was meinst du?

      Löschen
  2. In der Waffen- und Kriegstechnologie werden Roboter aufs Töten von Menschen (Terroristen) programmiert. Wenn Roboter Terroristen außer Gefecht setzen, müssen Polizisten ihr Leben nicht mehr riskieren. Das ist human gedacht. Also ist Regel 1 damit schon außer Kraft gesetzt.

    Ob wir von irgendwelchen stumpfsinnigen, unflexiblen Bürokraten oder von intelligenten Maschinen gelenkt werden, macht keinen so großen Unterschied. Vielleicht schneiden die Roboter da sogar besser ab.

    Wir sind schon längst dabei, uns an die Maschinenzivilisation zu gewöhnen. Das geht scheibchenweise in der Salami-Taktik.
    Und keine Sorge: soooo empfindsam sind wir Menschen nun echt nicht, als dass es uns ernsthaft was ausmachen würde, mit einem Roboter zu kuscheln. Das kriegen wir hin. :-)

    AntwortenLöschen
    Antworten
    1. Denke ich auch... Ganz allgemein ist ja akzeptiert, dass bei vernünftigen Algorithmen die Maschinen weitaus bessere Entscheidungen treffen, als wir Menschen. Daher kommt ja der Push. Ich bin aber gespannt, ob oder besser wann wir das akzeptieren werden. Das ist nämlich wieder mal eine historische Kränkung des narzisstischen Menschen, dass wir eigentlich ziemlich schlecht sind, wenn es darum geht, gute Entscheidungen zu treffen. Wir sind übrigens meistens auch zu faul und/oder zu ängstlich, überhaupt etwas zu entscheiden. Konkret gesagt: Wenn demnächst ein Algorithmus die Entscheidung trifft, ob jemand vorzeitig aus dem Gefängnis entlassen wird oder aus Sicherheitsverwahrung, weil er inzwischen keine Bedrohung mehr ist, dann wird es je nach Entscheidung entweder von der einen oder der anderen Seite vehemente Gegenwehr gegen die Entscheidung geben, obwohl alle wissen, dass die Entscheidung unter Einbeziehung aller individuellen Informationen dieser Person und aller statistischen Informationen die bestmögliche ist und zudem noch völlig unparteiisch, weil die Maschine (bei richtiger Programmierung) keine gefühlsduseligen Vorurteile haben wird. Das fasziniert mich.

      Löschen
    2. Das Beispiel ist nicht glücklich, Gilbert.
      Wieso hast Du es gewählt?!
      Der Mensch ist nicht ausrechnenbar, das befinden sicher auch die Hirnforscher. Es gibt Prognosen, sicher, aber ich bezweifle mehr als eine sagen wir mal, 85%ige Trefferqoute.
      Das Programm muß sehr genau abwägen, ob die mögliche Gefährdung mehr oder weniger zählt im Gegensatz zur Sicherheit der Umwelt. Ein bestimmter Parameter wird dann entscheiden, ob die Gefährdung mehr wiegt als das Gut der Freiheit. Schlussendlich muß ein Programmierer einen Prozentsatz anbieten/festlegen. Oder?! Ist, ganz plump (!) formuliert,die Gefährdung 84,9 %, und der Parameter 85 %, dann wird der Gefährder womöglich entlassen.
      Wie gesagt ganz plump. Das Programm kann nat. viel diffferenzierter vorgehen. Ohne Zweifel! Aber das Prinzip bleibt das Gleiche.

      Meine Einlassung einige Kommentare zuvor: Kann eine Software wirklich zuverlässig Lebendiges abbilden? Und: Was garantiert, daß die Software problemlos funktioniert, was mögliche Bugs, mögliche Engpässe im Rechner /Sytem ect. anbetrifft? Schon heute und das war der Motor meiner Anmerkung, funktioniert Software nicht wie gewünscht! Schau einer seine tagtägliche Arbeit am PC an, dann wird er das befinden!

      Gerhard

      Löschen
    3. Es ist purer Narzissmus, wenn der Mensch heute sein Gehirn vergöttlicht und es als Nonplusultra definiert. Es ist die Folge der Darwinschen Entdeckung, dass wir abgesehen von der Auffaltung der Großhirnrinde und dem Haarverlust weitgehend mit Schimpansen identisch sind. Da klammert sich der Mensch eben an jeden Unterschied, um das Selbstbild seiner Großartigkeit zu bewahren. Haarverlust geht ja wegen den Nacktmullen nicht. :-)

      Dabei gehen die elektrischen Impulse in den Nervenleitungen den bewussten Entscheidungen ja zeitversetzt voraus. Das heißt, das Gehirn trifft die Entscheidung gar nicht, sondern sucht im Nachhinein nur eine gute Begründung für eine bereits getroffene Entscheidung. Tatsächlich ist ein Gehirn in der Lage, jede Entscheidung so zu begründen, dass der Entscheider vor sich selbst immer gut da steht und gerechtfertigt ist. Selbst Mafiosis haben in der Regel gute Gründe, warum das, was sie tun, vollkommen gerechtfertigt ist.

      Neutrale bzw. erleuchtete Programmierer könnten vielleicht eine Künstliche Intelligenz erschaffen, die zuerst die Gründe zusammensucht, um erst dann die Entscheidungen zu treffen. Ob das insgesamt besser oder schlechter wäre? Keine Ahnung. Probieren könnte man das schon mal.

      Ich gehe aber davon aus, dass die Programmierer weder erleuchtet noch neutral sind. Dann fließen in die Künstliche Intelligenz willkürliche Parameter mit ein, die den Programmierer-Standpunkt rechtfertigen, der umso absoluter wird, je mehr Entscheidungen künftig maschinell gefällt werden. Das könnte schon ein Problem geben, da die meisten Programmierer ja Nerds sind und Nerds dadurch definiert sind, dass sie eine spezielle, ziemlich eingeschränkte Weltsicht mit unausgegorenen Herrschaftsansprüchen haben.

      Löschen
    4. "Das heißt, das Gehirn trifft die Entscheidung gar nicht, sondern sucht im Nachhinein nur eine gute Begründung für eine bereits getroffene Entscheidung."
      Ich glaube, nach heutigem Wissenstand ist das zu absolut. Der Mensch ist nachwievor "frei". Die entspr. Versuche, die zeigen sollten, daß das Bewusstsein, zu entscheiden, "nachhinkt", hatten doch m.E. methodische Fehler?!

      Ich habe auch über die Parametersets nachgedacht. Die wären so komplex, daß sie ständig angepasst werden müssten. Vermutlich neu auftretende und hinzukommenden Kriterien, neue Gesichtspunkte. Es wäre ständig im Fluß.
      Da würde jemand entlassen, der unter einem anderen Setting nicht entlassen würde. Da entstünden Rechtsfragen.
      Man kann ja dann nicht auf die Diktatur des Codes verweisen. "Der Code hat immer recht".

      Löschen
  3. Siehe hierzu:

    http://www.spektrum.de/news/unbewusste-entscheidungen-im-gehirn/949689
    https://www.mpg.de/562931/pressemitteilung20080409

    Was anderes ist mir nicht bekannt. Wenn Du andere Infos hast, würde mich das interessieren.

    Meiner Ansicht nach wird die Übernahme von Entscheidungen durch KI's einfach aus der Praxis heraus erfolgen. Das fängt damit an, dass ein Autofahrer sich von GPS lotsen oder Arzt sich von einem Diagnoseprogramm beraten lässt. Irgendwann werden Anwälte Programme mit Präzedenzfällen als Unterstützung verwenden. Bevor der normale Mensch überhaupt merkt, was passiert, wird der Wechsel schon eingetreten sein.

    Ich denke schon, dass es auf ein "Der Code hat immer Recht" hinauslaufen wird, denn der Code kann aufgrund der Komplexität doch gar nicht mehr überprüft werden. Wer sollte dazu in der Lage sein? Ein Gegencode? Nein, es ist doch ganz einfach: Seit Tausenden von Jahren arbeitet die Menschheit darauf hin, sich einen Gott zu erschaffen, der belohnt, bestraft und richtet. Dieser Gott wirft jetzt seinen Schatten voraus. Dieser Gott taucht aus dem Sumpf unseres kollektiven Schaffens auf. Vielleicht werden wir ihn sogar noch in Aktion erleben.

    Im Grunde läuft ein "Testprogramm" doch schon durch die Anonymisierung in Behörden und Konzernen. Man hat ein Problem, ruft an, wird automatisch weitergeleitet und je nachdem kommt man in diese oder jene Schleife rein. Ob das Problem gelöst wird, hängt zu einem guten Teil davon ab, in welche Schleife man gelotst wurde, und das wiederum ist teilweise Glück. So wie es auch teilweise Glück ist, dass man aufgrund von recht komplexen Sachverhalten ein Bahnticket 1. Klasse manchmal billiger bekommt als eins 2. Klasse. Wir werden uns an die Willkür gewöhnen und sie als normal empfinden. Es ist das, was die Mehrheit von uns Menschen gewollt hat.

    AntwortenLöschen
  4. ""Nach unseren Erkenntnissen werden Entscheidungen im Gehirn zwar unbewusst vorbereitet. Wir wissen aber noch nicht, wo sie endgültig getroffen werden. "
    So steht es in dem zitierten Spektrum-Artikel, den Du angeführt hast.
    Das ist in etwa mein Kenntnisstand. Ich glaube, gelesen zu haben, daß die gemessene Zeitspanne sich als kürzer erwiesen hat. Insofern wäre das Ergenbnis ageschwächter.
    Denn: Bedeutet angebahnt wirklich schon eine Vorwegnahme?

    Mit Links kann ich kaum dienen. Ich sauge Infos diesbezüglich auf und wenn sie Korrekt erinnert werden, ist es gut, andernfalls eben nur "Hörensagen". Als Nicht-Neurowissenschhftler ist das eben so.

    Ich bin wie Du etwas skeptisch, was von Ki zu erwarten ist.
    Der Einsatz von Computern in den Wissenschaften hat sich sehr fruchtbar erwiesen (siehe Buch "The arrival of the fittest"), aber die Dimensionen, die sich auftun, wenn man diese Intelligenz überall im Alltagsleben nutzen will, das scheint mir kritisch.

    Gerhard
    Gerhard

    AntwortenLöschen
    Antworten
    1. "Bedeutet angebahnt wirklich schon eine Vorwegnahme?" Ich denke schon. Dieser Befund passt zu meinen eigenen Beobachtungen: Entscheidungen werden nicht im Gehirn getroffen. Dort werden nur die Begründungen für die Entscheidungen produziert.

      Was heißt skeptisch? Wenn Du einen Jäger und Sammler fragst, was er von Bauern und Viehzüchtern hält, wird ihm ein solches Leben als Dystopie erscheinen: andauernd am selben Platz leben und das Wandern aufgeben müssen. Arbeitsteilung. Einer Obrigkeit aus Priestern statt einem Stammeschef gehorchen usw. Der Jäger und Sammler wird das für ein schlechtes Leben halten.

      Wenn Du Dich oder mich, Gilbert oder sonst wen fragst, dann werden wir alle zusammen das Leben eines Jägers und Sammlers wahrscheinlich als hart und entbehrungsreich angucken und nicht mit einem solchen tauschen wollen. Im Grunde genommen sind wir doch froh, dass wir in einer Welt mit geheizten Häusern, Kläranlagen, Autos, ja sogar Arbeit und Behörden wohnen, auch wenn viele von uns dauernd jammern und Weltuntergang verbreiten.

      Künftigen Generationen wird es ebenso gehen. Denen wird unser heutiges Leben grässlich vorkommen und sie werden nicht mit uns tauschen wollen. Einfach deshalb, weil sie was Anderes gewohnt sind.

      Es ist schon richtig, dass die meisten Menschen sich lieber um Entscheidungen drücken. Die wenigsten wollen eigenverantwortlich leben. Die Menschheit sehnt sich kollektiv nach einem Gott in Form von Über-Eltern, die die Fürsorge und Kontrolle übernehmen. Nur aus diesem Grund hat sich das Staatswesen entwickelt, nicht, weil ein paar Böse die Weltherrschaft wollen.

      Sämtliche transzendenten Wünsche der Menschheit wurden auf technischem Wege verwirklicht. Dass sich dann der Traum von Gott in Form einer übermächtigen KI verwirklicht, scheint mir naheliegend.

      Löschen
    2. Das finde ich eine ziemlich passende Diagnose.

      Anmerken müsste man vielleicht noch, dass es nicht so monokausal ist, dass wir uns nach Entlastungen durch Göttern von Staatswesen bis KI sehnen. Dieser Zug zur Entlastung ist bereits biologisch (und nicht erst psychologisch) in uns angelegt. Er geht einem Sehnen nach... voraus. Man sieht das daran, dass die zerebrale Entwicklung unseres Gehirns bereits ein solcher Entlastungsvorgang ist. Kapazitäten werden weg von den Sinneswahrnehmungen und Instinkten hin auf höhere kognitive Funktionen verschoben, die dann wiederum den Menschen frei von der festen Umweltbindung machen, der andere Tiere unterliegen. Die damit verbundene Notwendigkeit, Krücken und Werkzeuge herzustellen, ist im Grunde der Ursprung alles technischen Fortschritts.

      Löschen
    3. Ja, ich kann folgen, Fingerphilosoph.
      Vielleicht, Gilbert, kannst Du noch etwas zu der Funktion des Gehirns, so wie Du sie beschreibst, sagen.


      Gerhard

      Löschen
    4. Ohne, dass ich mich auf die Ebene der Funktion des Gehirns begeben könnte, meine ich einfach nur, dass der Mensch das Tier des endlosen Outsourcing ist. Der Gedanke kommt von Anthropologen wie Arnold Gehlen, die den Menschen als "Mängelwesen" oder als "das nicht festgestellte Tier" charakterisiert haben. Uns mangelt es an Instinkten, Kräften, Schnelligkeit, sogar an Wahrnehmungsfähigkeit (sehen im Dunklen, gut hören oder riechen) und Fell. Dafür haben wir aber ein reiches und kreatives Oberstübchen, das über Auslagerungen (Krücken, Werkzeuge) den angeborenen Mangel überkompensiert.

      Das ist auch die Wurzel unserer Institutionen und Autoritäten, die ebenfalls den Mangel an Instinkten, Schnelligkeit, Kräften und ausgeprägten Sinnesorganen kompensieren. "Regierungen, Schulen, Elektrizitäts- und Informationsnetzwerke, die Moral oder die Ehe wären Beispiele unseres komplexen Hauses der Institutionen und Autoritäten." (Die nicht endende Zähmung des Menschen.

      Die weitestgehende Freiheit von Instinkten und von präzisen Wahrnehmungsapparaten ist der Grund, warum wir nicht in der ersten Natur leben können, sondern und eine zweite Natur erschaffen haben, die Kultur. Wir passen in keine ökologische Nische, dazu sind wir nicht spezialisiert genug, nackt und ohne Werkzeuge würden wir sogar im angenehmsten Klima ziemlich schnell eingehen. Dafür aber haben wir geschafft, was kein anderes Tier schafft: In jeder terrestrischen Umwelt zurecht und tatsächlich auch vorzukommen.

      Wenn man sich andere höhere Säugetiere, sagen wir Bären, ansieht, dann versteht man, was das bedeutet: Bären sind, anders als Menschen, nicht flexibel. Sie ändern ihre Meinung nicht, müssen nicht lange entscheiden, dafür handeln sie so, wie sie es von ihrer Mutter gelernt haben und wie es ihnen ihre Instinkte nahelegen. Es gibt nur eine geringe Bandbreite der Flexibilität, zum Beispiel können sie bestimmte Vorlieben territorialer, kulinarischer oder intersubjektiver Art ausbilden. Alle großen Ereignisse wie Winterschlaf, Aufzucht der Jungen oder Verteidugung des Reviers werden auf die immer gleiche Art und ohne aufwendige Entscheidungsfindungen durchgezogen. (Die Gefahr von Psycho-Kult, Coaching und Selbstoptimierung)

      Um aber als Mensch überall zurecht zu kommen, können wir uns nicht auf unsere Körper und Gehirne verlassen, wir müssen diese entlasten und Operationen auf Werkzeuge, Krücken und Institutionen auslagern. Ist das irgendwie verständlich oder zu wirr?

      Löschen
    5. Wirr ist das keinesfalls, sogar recht gut dargestellt.
      Der Kompensationsgedanke ist eine "alte" Idee, aber wahrscheinlich noch gut tauglich.
      Ich bin kein Experte.
      Bzgl. Bärenbeispiel: Unlängst (wohl bei Scinexx) gelesen, daß Affen eine bestimmte Tätigkeit immer auf die gleiche Weise, etwa mit geneigtem Kopf, sippentypisch ausführen. Kommt ein fremdes Tier in die Sippe, kann es passieren, daß die Affen das Verhalten des neunen Mitglieds adaptieren.

      Apropos: Ich las vorhin noch zu den Willensentscheidungen im Buch "Ist der Mensch noch frei?" von Martin Hubert. Vielleicht kann ich noch was dazu anführen, mal sehen, ob die Zeit dafür da ist.

      Gerhard

      Löschen
    6. Ja gerne! Das würde mich freuen.
      Ich musste bei eurer Diskussion dazu oben an Frank Wilczeks Ausspruch denken: "Eine tiefgründige Wahrheit kann man daran erkennen, dass ihr Gegenteil ebenfalls eine tiefgründige Wahrheit ist."

      Löschen
    7. Unlängst folgendes aus 2014 entdeckt. Vielleicht interessant für Dich:
      http://www.deutschlandfunk.de/philosophie-im-hirnscan-manuskript-teil-1-des-menschen.740.de.html?dram:article_id=283145
      Zentraler Satz für mich darin:
      „Der Streit um den freien Willen wird wohl nie endgültig beigelegt, dafür ist der Begriff zu weit interpretierbar.“

      Gerhard

      Löschen
    8. Danke für den Tipp, habe gelesen. Interessant und wieder bestätigend, dass "Freiheit" ein schwieriger Begriff ist und dass insbesondere die Frage der "Willensfreiheit" nicht nur aus einer Perspektive (z.B. der neurobiologischen) beantwortet werden kann.

      Um nicht paralysiert zu sein, habe ich für mich einige Dinge als vorerst nicht zu hinterfragen klassifiziert. Und dazu gehört die Willensfreiheit. Wenn ich diese nicht voraussetzen würde, könnte ich den Rest meines Denkens komplett sein lassen. Da bin ich also Pragmatiker.

      Löschen
  5. Als jemand, der fünf Jahre lang mit Machine Learning-Systemen gearbeitet hat, bin ich mit dem Thema "Künstliche Intelligenz" doch wesentlich cooler. Das menschliche Gehirn grenzt an ein Wunder. Maschinen werden das so schnell nicht nachmachen. Das ist noch Science Fiction und wird es noch lange bleiben. Bisherige Systeme haben genau da ein Problem, wo Menschen gut darin sind: Passende, völlig "verquere" Verknüpfungen herzustellen, wenn eine bisher nie dagewesene Situation eintritt. Zumindest auf Basis dessen, was ich bisher gesehen habe lehne ich daher den Begriff "Künstliche Intelligenz" ab.

    Aus anderen, eher persönlichen Hintergründen denke ich: Die menschliche Intelligenz ist untrennbar mit Emotion verbunden. Da gibt es natürlich große individuelle Unterschiede. Aber meine Behauptung, die ich einfach mal hinwerfe: Ohne Emotion ist der Mensch nicht intelligent. Und die soll uns so eine Maschine erst mal nachmachen, die verstehen wir ja oft nicht mal selber! :-)

    Um das nicht nur einfach so hinzuwerfen: Emotion beeinflusst Entscheidungen. Dass das auch mal in die Hose gehen kann, ist klar. Aber, wie mir der Zeitgeist zu sein scheint, Emotion deswegen als irrational zu verachten, ist meiner Meinung nach grundlegend ungesund bis hin zu unmenschlich.

    AntwortenLöschen
    Antworten
    1. Danke für den Kommentar, Toc6!
      In vielem, was du sagst, kann ich dir nur beipflichten. Und ich kann gar nicht oft genug darauf hinweisen, dass es beim Menschen keinen fundamentalen Unterschied zwischen einem Gefühl und einem Gedanken gibt. Das sind graduelle Unterschiede, die mit Graden von Bewusstheit/Reflexion korrelieren. Insofern wäre eine Aussage, wie Gefühle sind irrational nicht besonders treffend. ABER: Natürlich müssen wir in bestimmten Feldern (sagen wir Politik, wissenschaftliche Argumentation) auf höhere Grade der Reflexion bestehen, ansonsten werden wir keine sinvollen Auseinandersetzungen und Lösungen finden.

      Zu deiner Skepsis re KI: Was ist mit der Definition oben, nach der es sich bei KI um ein computerisiertes System handelt, das ein Verhalten zeigt, von welchem gemeinhin angenommen wird, dass es Intelligenz erfordert? Da braucht man keine Emotionen, das ist rein behaviouristisch.

      Was meinst du?

      Löschen
  6. „Welche Prioritäten haben die Maschinen und wie reagieren sie, wenn sie mit einem Dilemma konfrontiert werden (lieber drei alte Damen gefährden als ein Kind)? Wer ist für Unfälle verantwortlich, ganz gleich wie unwahrscheinlich sie sind? Und welche Verantwortung haben wir gegenüber den Maschinen?“

    Obwohl mich der gesamte Artikel interessiert und ich oft darüber nachdenke, inwieweit ich dem ganzen Fortschritt folgen kann, sogar folgen muss, oder mich eher nur, so gut es geht, anpassen kann? Oder ist auch diese Frage eher ein muss? Die Frage der Anpassung?

    Ich habe diesen Absatz aus dem Gesamttext mal herausgegriffen, weil ich so am ehesten meine Bedenken widergespiegelt sehe, weil sich Gedanken und Zweifel auftun mit genau solchen Fragen, die ich sehr kritisch sehe.

    Denn inwieweit kennt eine intelligente Maschine oder ein Roboter den gesamten Lebenskontext einer Persönlichkeit? Da gibt es unzählige Varianten, wie sich das Lebensumfeld und die Geschichte von Personen gestaltet. Ich finde, dass man die Eigenverantwortung nicht einfach abziehen und auf einen Roboter übertragen kann. Der Nachteil ist nämlich, dass man dann auch seine Autonomie zusammen mit der Eigenverantwortlichkeit abgibt, im Sinne von Entscheidungen, die man doch lieber selbst treffen will. Dann gibt es Entscheidungen, wo man es sich einfach machen möchte, wenn die Zweifel sozusagen so sehr nagen, dass man keine gerechte Entscheidung treffen kann. Es kann einem sehr bedeutend sein, wo es einen ganz klar persönlich so berührt, dass man die Entscheidung auch nur selbst treffen kann. Ein solches Beispiel wäre zum Beispiel, dass man doch eine alte Dame oder Herren, seien es auch mehrere, unter dem Aspekt des Charakters gar nicht kennt. Es kann ein herzensguter alter Mensch sein, der sich zum Beispiel sozial engagiert hat, vielleicht eine Krankenschwester, Krankenpfleger, Rettungssanitäter, der nun Rentner ist, der jahrelang einen guten Job gemacht hat. Vielleicht auch noch eine Person, die das Bundesverdienstkreuz verliehen bekam, noch extremer, eine Person mit dem Friedensnobelpreis. Und aus dem Kind mache ich jetzt einfach mal einen Jugendlichen so um die elf oder zwölf Jahre alt. Das Kind ist immer besonders zu schützen. Aber es könnte beispielsweise auch ein Kind sein, das in diesem Alter leider ein kleines Vorstrafenregister aufzuweisen hat, aber nur in Betracht auf eine problematische Entwicklung sich dies so prognostizieren lässt, dass das Kind eventuell die Karriere eines Straftäters machen könnte, wenn soziale Hilfen seither eventuell vergebens waren. Das ist ethisch dann doch gar nicht einzuschätzen.

    AntwortenLöschen
  7. Dieser Kommentar wurde vom Autor entfernt.

    AntwortenLöschen
  8. Die Eltern des Kindes würden doch alle Hoffnung dransetzen, dass das Kind doch noch in die richtigen Bahnen gelenkt wird. Und die Angehörigen und Freunde der Leute, die sich in der Gesellschaft verdient haben, die würden eher einen Menschen verschonen, der Gutes geleistet hat, als einen Jugendlichen mit „potenziellem“ Vorstrafenregister.

    Deswegen kann man solche Zufälle nie richtig einschätzen. Diese Fragen sind ethisch einfach nicht, überhaupt nicht, zu lösen. Wenn man tatsächlich mal in eine solche Ausnahmesituation als Autofahrer kommen würde, was würde man machen? Ich sehe nur das Kind, weil es ein Kind ist. Würde wahrscheinlich instinktiv einfach das kleinere „Wesen“ sehen, das ich eher retten müsste. Als Autofahrer sieht man auch nur (leider) oder nicht leider, dass die jüngere Person noch das ganze Leben vor sich hat, dann rettet man das „junge Pflänzchen“. Umgekehrt kann es ja auch tatsächlich dann genauso gut so sein, dass die ältere Person das Vorstrafenregister schon längst hat, und das Kind sich prächtig entwickelt hat, man würde dann ganz klar ein junges Leben zerstören. Und ethisch völlig verzwickt wird es dann, wenn gleich drei ältere Damen und das eine Kind eine Frage bilden: Ungefähr wie beim Kegeln, welche Kegel sollen fallen? Drei oder einer. Eigentlich nur einer, aber der eine hat sein ganzes Leben noch vor sich, deswegen wiegt er für drei?

    Ich glaube, dass es ein gefährliches Spiel ist, solche ethischen Fragen sich allein schon als Mensch zu stellen, geschweige denn, sie auf einen Roboter zu übertragen.

    Passiert der Unfall, dann ist die Schuld der Zufall. Die einzige Schuld, die es hier gibt und die man irgendwie zuschieben kann, ist ein Zuschieben auf den Zufall. Man steckt immer noch persönlich als Autofahrer in der Situation und es ist allein der Instinkt in dieser verflixten Blitzsekunde. Man reißt irgendwie das Steuer rum. Gewissensbisse macht man sich mit Sicherheit danach so oder so. Ganz knallhart gesagt, ist es das Pech des Zufalls. Wie will man Pech eliminieren? Es lässt sich nicht eliminieren. Es wäre das Schaffen des perfekten Paradieses. Es würde nur noch Gut geben und nicht Böse. Pech ist böse. Pech bleibt immer Pech. Erst, wenn alle Krankheiten, Unfälle, Unwetter, Katastrophen für immer aus dieser Welt verschwunden wären – erst dann hätte sich diese Frage von selbst beantwortet. Man nimmt mit einem Roboter etwas vorneweg, was noch gar nicht, und wahrscheinlich auf – wann denn überhaupt – Erden eine Illusion (das Paradies) ist, die noch gar nicht eingetroffen ist. Man tut dann aber quasi so, indem man diese Entscheidung einfach an den Roboter delegiert, als ob mit einem Element (eine Variante des Zufalls) von unzähligen Elementen (ganz andere Konstellationen des Zufalls/Zufälle) schon das Paradies geschaffen ist. Dem ist aber nicht so. Als ob es nur ein Summenspiel oder ein Spiel mit dem Würfel wäre. Pech mag einem wie Würfeln erscheinen, aber man verstärkt das Pech und das Würfeln, wenn man glaubt, dass man es an den Computer abgibt. Ein Nullsummenspiel, weil man sich der falschen Illusion hingibt, nicht mehr reflektiert und nachdenkt, man hört einfach auf den Roboter, man wird hörig, aber hört nicht mehr in sich selbst hinein. Es scheint einfacher zu sein, Fragen, die man als Mensch immer auch unfair bewerten kann, weil Pech sich gar nicht bewerten lässt, dass man sich aus der Affäre zieht, weil es klüger ist, weil der Mensch in diesen Fragen so oder so den Kürzeren zieht. Aber was hat man damit gewonnen? Man wird vielleicht sogar stumpfsinniger und denkt weniger an menschliche Schicksale oder Lebensgeschichten. Was bedeutet Charakter und Lebensgestaltung und Lebenseinflüsse, wenn es der Roboter entscheiden kann, was in welchen Situationen für alle Menschen das Beste ist. Der gewonnene oder (ich sehe es so: der zerronnene) Fortschritt wird derjenige sein, dass man im Endeffekt rechtliche und ethische Fragen generell dem Computer überlässt. Das kann es irgendwie nicht sein.

    AntwortenLöschen
  9. Als Nebenthema fällt mir ein Gedankengang ein, den ich schon als Kind hatte. Ich grübelte mal darüber nach, was ich tun würde, wenn meine Mutter in die Hände von Verbrechern geraten würde. Diese würden mir die Frage stellen, ob ich bereit bin, für meine Mutter im Tausch mich „quälen“ zu lassen. Ich hing ja als Kind an meinem Leben, aber das Leben meiner Mutter war mir unendlich viel wert, als Kind eher sogar noch mehr wert als mein eigenes. Diese Frage musste ich zum Glück niemals in echt beantworten. Als Kind hätte ich wahrscheinlich spontan und genau in der Echtzeit mich dafür hergegeben. Man denkt nicht weiter und ist in der Gefahr immer spontan. Das Gewissen und die Liebe sind stärker als das Reflektieren über die Folgen. Schnelles Denken hat sozusagen den Vorteil hier gegenüber dem langsamen Denken. Andererseits würde ich jedem Kind das Recht voll und ganz einräumen, dass es sein eigenes Leben rettet. Umso mehr auch dann, wenn das Kind gar keine gute Beziehung zur Mutter hat, was es gibt und dafür gibt es auch gute Gründe. Im Zweifelsfall würde ich sagen, dass man immer aus Notwehr auch das Recht hat, sein eigenes Leben zu retten.

    AntwortenLöschen
  10. Der Mensch verliert, wenn spontane Entscheidungen technisiert werden, seine Fähigkeit zur Spontanität. Der Mensch ist sehr wankelmütig. Was er heute denkt und sagt, kann morgen schon längst überholt sein. Das ist die Fähigkeit zur Spontanität, was viel zu sehr als schlecht bewertet wird. Aber ist ist Entwicklung, die dem Menschen so immanent ist, wie sonst nichts. So dumm es auch scheinen mag. Was habe ich noch so als Kind gedacht? Zum Beispiel mal die Frage, die ich mir stellte, ob ich eigentlich meinen Hund mehr liebe als meinen Vater? Diese Frage war mir in dem Moment selbst merkwürdig. Aber sie war mir auch bedeutend. Mir wurde damit klar, sie sehr ich eben auch meinen Hund liebe. Am nächsten Tag oder einfach nur später, war mir klar, dass ich meinen Vater doch mehr liebe. Aber nichts desto weniger meinen Hund. Ein Roboter wäre mit solch dümmlichen Fragen wahrscheinlich überfordert. Aber es gehört zur menschlichen Entwicklung dazu. Ich sehe es ja daran, dass es zu meiner Persönlichkeit gehört, dass ich solche Kinderfragen bis heute wohl nicht vergessen habe und auch nicht wollte und will. Warum auch immer.

    Generell ist es – weg von dem obigen Text – eine Kunst, immer gerecht zu handeln und zu denken. Was heute noch generell gilt ist doch die Aussage, dass allen Menschen Recht getan ist eine Kunst die niemand kann. Wie soll das ein Roboter lösen? Und hier komme ich wieder zu dem Fazit: Er müsste bereits das Paradies auf Erden geschaffen haben. Hat er aber noch lange nicht. Weswegen ethische Fragen nicht aus dem Gesamten herausgenommen werden können, sozusagen als Legitimation, dass mit einzelnen ethischen Fragen und deren computertechnischer Lösung man auch nur ein Stück weiterkäme. Es ist nur eine Verschiebung aber keine Lösung. So gefühlt, als ob man diese Einzelfragen in ein Gefängnis separiert, aber aufgeschoben ist nicht aufgehoben. Das meine mich damit, dass man sich nur selbst was vormacht, was nicht ist: Eine Scheinlösung ist keine Lösung. Insofern aber auch kein Status quo. Man produziert einen toten Winkel. Der Mensch auf einem Auge blind, wo er vorher auch nicht sehend war. Aber was nützt es, wenn der Computer auf einem Auge ebenso blind ist? Hätte der Mensch diesen blinden Fleck gelöst, alle blinden Flecken insgesamt oder auch nur einen einzigen davon. Erst dann könnte dieser Schritt erfolgen mit einer Abgabe an den Roboter. Aber vor Schritt eins, der unmöglich ist, kann auch der Roboter nicht den zweiten Schritt (das Paradies) vorwegnehmen. Ich glaube, damit produziert man eine Zukunft, die die Gegenwart und das Leben in der Gegenwart einfach ausklammert – und damit eine sehr menschliche und liebenswürdige (auch fehlerhafte) Eigenschaft: die Spontanität. Der Mensch betrügt sich selbst um Chancen, die er hat, und diese sollte er vorher noch in der Gegenwart klären oder darüber nachdenken. Ich könnte ja nun ganz extrem werden und sagen, dass der Roboter dann auch über den zukünftigen Todeszeitpunkt entscheidet, was ein Mensch niemals tun würde. Es gibt Rätsel, die der Mensch nicht lösen kann. Es wird einen Grund dafür geben, aber soll der Grund für Rätsel abgeschafft werden, weil es in Zukunft keine Rätsel mehr gibt? Gibt sie es noch oder nicht? Macht man es kompliziert, indem man künstliche Rätsel produziert, die gar nicht so angedacht waren? Solange es sie gibt, kann man sich nicht der Illusion hingeben, dass auch nur ein einziges Rätsel durch Computertechnologie einfach aus Raum und Zeit verschwindet, durch Versatzstücke mit künstlichen Rätseln. Mein Geist spielt hier verrückt. Aber der Computer scheint ja alles dann sozusagen im Griff zu haben. Es reicht, wenn der Mensch ein Narr ist, weil er sich mit den Rätseln (noch) befassen will. Aber er würde sich noch mehr zum Narren machen, wenn er das Narrenhafte verdoppelt. Dann sind es zwei Narren: Mensch und Roboter. Ein Dopplungseffekt. Also nichts gewonnen und noch mehr Verwirrung geschaffen. Und das ist nicht das, was ich unter Anpassung verstehen würde.

    AntwortenLöschen
  11. Vielleicht arbeitet der Geist auf zweierlei Ebenen. Die eine Ebene arbeitet zeitlos, was bedeutet, dass von der Zeit unabhängig ganz fiktiv mögliche Handlungen vorweg entschieden werden, auch unabhängig vom eigenen Körper und der räumlichen Umgebung. Das sind die Sekundenbruchteile der Entscheidungen vorneweg. Dann justiert sofort das Gehirn nach: Moment mal, ich bin im Zeitgeschehen, ich bin im Raum, ich bin im Körper. Das ist dann die „nachjustierte Entscheidung“, sozusagen die Echtentscheidung, weil man den Raum, die Zeit, den Körper vorher außer Acht gelassen hat, und dann quasi sofort und ganz unbemerkt vom Bewusstsein, nachjustiert. Das beweist mir, dass der Mensch fähig ist zur Fantasie, was wünsche ich mir jetzt ganz spontan, ganz unabhängig von Körper und Raum und Zeit. Es spielt instinktiv mit hinein, aber das Gehirn macht den Abgleich sofort hinterher, weil man die Zeit, den Körper und den Raum, nicht vom Geist loslösen kann. Der Geist ist aber immer unbewusst fähig dazu, und zwar außerhalb von Zeit, Raum und Körper. Das Gehirn ist eine Brückenfunktion zwischen den beiden „Welten“.

    AntwortenLöschen

Top 3 der meist gelesenen Artikel dieser Woche