Künstliche Intelligenz

  • Relevant ist wohl eher der Faktor der Entscheidungsgewalt - solange die bei einem menschlichen Akteur bleibt, sind wir wohl vor dem Maschinenaufstand sicher

    Du gehst also von einer KI aus, die man komplett selbst steuern muss? Im Sinne von, der Mensch entscheidet, welche Daten eingepflegt werden, und entscheidet dann, was die KI damit macht und welche Rechnungen ausgespuckt werden.

    Das erscheint mir eher wie so ein Taschenrechner-Konzept, á la: Ich gebe zwei Zahlen ein und "addiere das" und bekomme so meine neue Zahl.


    Ich denke, davon werden sich richtige KI-Systeme in Zukunft eher wegbewegen und sich tendenziell in eine Richtung entwickeln, vor der sogar Leute wie Stephen Hawking warnen. Weil sie eben nicht länger von außen gesteuert werden müssen, sondern sich autark fortentwickeln - möglicherweise auch in Richtungen, die uns nicht gefallen.

    Für Ratschläge, auch im ethischen Sinne, könnte man allerdings tatsächlich eine hochentwickelte KI heranziehen. Vielleicht sind solche KI-Priester, Orakel und Philosophen in Zukunft der würdige Nachfolger unserer 'Denker' aus Fleisch und Blut. Das wäre mit Sicherheit inspirierender als irgendwelche Papst-Reden oder TV-Philosophen. Auch das Amt des Bundespräsidenten könnte gut von einer KI übernommen werden ;)

    Ja, es ist nicht sonderlich schwer, bestimmte Moralsysteme einzuprogrammieren oder Prinzipien wie "Frauen und Kinder zuerst", "kein Lärm zur Nachtruhe" usw. zu implementieren.

    Und auch künstliche Intelligenzen können mal vor widersprüchlichen Bedürfnislagen stehen, die sie hierarchisch bewerten müssen, nur sind sie - im Gegensatz zu uns - dazu in der Lage, alle komplexen Details der Umstände in einem irren Tempo zu erfassen, gegeneinander abzuwägen und auszuwerten. Auf die Schnelle können einfach mehr Zusatzfaktoren einberechnet werden.

    Gerade unter Zeitdruck würden wir Menschen mit deutlich weniger Informationen arbeiten, auch weil der Denkprozess viel länger dauert, und die Situation stark simplifiziert werden muss, um überhaupt zu einem Ergebnis zu kommen. Zwar ist die generelle Arbeitsweise mit den Hierarchiesystemen vermutlich mit einem biologischen Hirn vergleichbar - vielleicht sogar so etwas wie eine Grundvoraussetzung -, doch stehen wir unter so verdammt vielen Zusatzeinflüssen, dass die Anordnung und Bewertung letztlich sehr chaotisch abläuft und selten wirklich reproduzierbar ist.

  • Ich weiß ja nicht, was deine subjektive Definition von "Intelligenz" ist, aber meines Erachtens ist die Lernfähigkeit ein Aspekt, der dazugehört und der eine KI im Wesentlichen von einer gewöhnlichen Rechenmaschine unterscheidet. Einen "komplexen Algorithmus", der nicht in sich geschlossen ist, sondern sich selbst erweitern kann, würde ich nicht als einen solchen bezeichnen.

    Das Bewusstsein ist keine Voraussetzung für Intelligenz, auch für keine künstliche.


    Und im weiteren Verlauf sprichst du doch genau davon:

    Ja sorry, ich schreibe manchmal wirres Zeug. ;D



    Genau das ist ja der Knackpunkt. Bewusstsein ist vielleicht keine Voraussetzung für Intelligenz, aber es scheint da doch eine Korrelation zu geben. Wir wissen nicht genau, wann unter welchen Bedingungen sie entsteht, geschweige denn wie man sie von einem imitiertem Bewusstsein unterscheidet. Kann eine KI Emotionen oder Schmerz empfinden und wenn ja, was bedeutet das für uns? Ab einem bestimmten Punkt wird das unumkehrbar sein. Ethisch-Moralische Faktoren spielen da ja auch eine wichtige Rolle. Was tun wir, wenn die KI einen eigenen Willen entwickelt, ob simuliert oder authentisch. Folgen wir dann dem Motto "Wenn du nicht brav bist und schön tust, was wir sagen, drücken wir auf den roten Knopf oder ziehen dir den Stecker"? ^^



    Meiner Meinung nach ist ein reiner Gottkomplex von Leuten wie Yuval Harari, Klaus Schwab, die von einer technokratischen Diktatur träumen. Kennt man ja schon von Prometheus, Frankensteins Monster, der Zauberlehrling und so weiter. Das ist ja alles nichts Neues. Aber der Mensch lernt erst, wenn er sich die Flossen verbrannt hat.



    Was ist eigentlich euer Worst-Case-Szenario?



    Ok, die Intelligenz an sich würde ich auch am Faktor G ausmachen wollen. Diese sowohl spezifischere Formen und kristalline Intelligenz können von einer KI erlernt werden, keine Frage.

    Aber was ich unter einer wirklichen Intelligenz verstehe, ist die Fähigkeit zu originellen Gedanken und der Fähigkeit eigene Entscheidungen zu treffen.


  • Mir ging es eher um die Entscheidungsgewalt, die man einer KI zuweisen könnte bzw. nicht zuweisen sollte. Vermutlich bist du in der Thematik besser bewandert als ich - welche konkreten Bereiche sind es denn deiner Meinung nach, in denen KIs eventuell in Zukunft folgenschwere Entscheidungen für uns treffen könnten?

    Die KI als Ratgeber in ethischen Fragen ist ein interessanter Gedanke, das Problem ist hierbei immer die Begrenztheit von Ethik bzw. Philosophie als solcher. An sich könnte natürlich eine Maschine mögliche Handlungsoptionen und Lösungsansätze formulieren, aber letztlich bleibt die Entscheidung von den Präferenzen menschlicher Entscheider abhängig. Bestimmte moralische Dilemmata - z.B. der Widerspruch zwischen Freiheits- und Sicherheitsansprüchen - können auch mit ethischen Argumenten nicht letztbegründet aufgelöst werden.

  • welche konkreten Bereiche sind es denn deiner Meinung nach, in denen KIs eventuell in Zukunft folgenschwere Entscheidungen für uns treffen könnten?

    Hm, ganz spontan fallen mir vor allem militärische Einsätze ein, die irgendwie aus der Bahn laufen.

    Auch muss ich da an computergesteuerte Verkehrssysteme denken. Die dabei getroffenen Entscheidungen sind definitiv folgenschwer und gerade in Bezug auf autonomes Fahren existieren ja auch schon diverse Ethikkommissionen, die sich mit den zugehörigen Fragestellungen beschäftigen.

    Das sind aber nur zwei Bereiche von ganz vielen, von denen ich denke, dass sie in Zukunft betroffen sein werden. Ich denke sogar, dass wir früher oder später einen Punkt erreichen werden, an dem es überhaupt keinen Bereich mehr geben wird, der ohne eine KI auskommt. Es erscheint mir ein ähnlicher Prozess zu sein wie mit Computerunterstützung allgemein. Vor ein paar Jahrzehnten konnte sich niemand vorstellen, wie digitalisiert die Welt heute sein würde und in wie vielen Bereichen die Computertechnologie zum Tragen kommt.

    Dieser Wandel geht verdammt schnell.

    Utopie oder Dystopie?

    Meiner Ansicht nach gewöhnt man sich an die positiven Effekte dieser Entwicklungen sowieso ziemlich rasch und weiß sie nur noch auf einer abstrakten Ebene zu schätzen (man werfe einen Blick auf die Möglichkeiten, die wir heute haben: direkte Kommunikation per Chats, Foren und Social Media und Recherchemöglichkeiten im Überfluss). Während die dystopischen Aspekte ebenso gravierende Folgen haben - zusätzlich mit einem Potenzial, das man bei schlechten Absichten noch viel weiter ausschöpfen kann.

    Darum eher Dystopie. Insbesondere langfristig.

  • Was ist eigentlich euer Worst-Case-Szenario?

    Also da ich wie gesagt das Terminator- oder Matrix-Szenario eher ausschließen würde (also dass die Maschinen uns komplett vernichten wollen oder nur noch als Vieh bzw. Batterien betrachten), würde ich eher so ein Szenario befürchten, das in Richtung einer extrem kollektivitisch ausgerichteten Technokratie geht.

    Ich könnte mir gut vorstellen, wenn die Menschen erstmal die Nützlichkeit und Unfehlbarkeit von KI-Prognosen erkannt haben, dass sie dann immer mehr Entscheidungen an den Computer abgeben. Angenommen, die KI hätte sich bewährt, indem sie einen globalen Konflikt zur Zufriedenheit aller gelöst hätte. Dann würde man sie vielleicht zunehmend auch bei anderen Dingen entscheiden lassen.

    Und irgendwann ist es dann vielleicht so weit, dass der allwissende Computer entscheidet, wie ein Kind sich am besten mit seinen Talenten in die Gesellschaft einbringen kann, und welchen Beruf es zu ergreifen hat. Und selbst bei der Partnerwahl entscheidet der Computer, ob man zu seinem Partner passt... also so ähnlich wie bei Tinder, nur dass es keine Vorschläge mehr sind, sondern vielleicht sogar öffentlich bekanntgegeben wird, wer sich mit wem zu vermählen hat. Und alle haben sich dann daran zu halten, und wer die Entscheidungen des großen Computers hinterfragt, wird als Ketzer betrachtet, weil der Computer eben als unfehlbar gilt.

    Ich kann mir aktuell nicht vorstellen, dass ein intelligente KI sich gegen die Menschheit verschwören würde. Aber dass die Menschen stark abhängig werden von dieser KI, und die Menschlichkeit und der Individualismus dabei zu kurz kommen, und vor allem jene darunter leiden werden, die sich nicht den Entscheidungen der Maschine fügen wollen, weil sie nicht in die Kategorien passen, in denen die KI denkt... solch ein Szenario könnte ich mir sehr gut vorstellen.

    Ich denke sogar, dass wir früher oder später einen Punkt erreichen werden, an dem es überhaupt keinen Bereich mehr geben wird, der ohne eine KI auskommt. Es erscheint mir ein ähnlicher Prozess zu sein wie mit Computerunterstützung allgemein.

    Auf dem Papier und in den Träumen von irgendwelchen Silicon Valley-Unternehmern ist die Richtung, in die es in Zukunft geht, natürlich klar vorgegeben und unumkehrbar.

    Ein Gedanke, der mir bei der ganzen Technologie-Debatte über autonomes Fahren etc. etwas zu kurz kommt, ist aber der enorme Kostenfaktor. All diese netten Spielereien kosten nämlich blöderweise (oder glücklicherweise?) irre viel Geld. So ein autonom fahrendes Auto braucht halt auch nicht nur eine KI, die es steuert, sondern die nötigen Sensoren, Kameratechnik, und so weiter... Für das Geld kann man vier oder fünf herkömmliche Autos produzieren. Und die konnte man früher zur Not sogar selbst reparieren, wenn sie kaputt gehen, heute können das nicht mal mehr ausgebildete Mechaniker, sonder nur jemand, der über die nötige Software verfügt und viel Geld für das Reparieren des Autos kassiert.


    Irgendwann wird die Menschheit an einen Punkt kommen, wo sie sich fragen muss:

    Wie viel Entwicklung ist eigentlich wirklich sinnvoll, und ab wann wird es unnötiger Luxus? Und wollen wir in Zukunft wirklich einen Großteil unserer Lebenszeit nur dafür arbeiten, um uns teure Technikspielereien leisten zu können, die uns hier und da ein bisschen Arbeit abnehmen?

  • Neuralink, wie schon erwähnt, will die Schnittstelle zwischen Hirn und Computer erschaffen. Auch wenn sie es nie zugeben würden, die wollen natürlich unsere Daten. Vorteil hätte es sicher, unser Leben würde noch bequemer. Wir werden sicher auch viel positive Entdeckungen, machen, wie unser Nervensystem funktioniert und dann eben die Hirndaten verarbeiten zu können.In der Medizin und Psychologie wird es da bestimmt große Fortschritte geben. Mit „Die Gedanken sind frei“, ist dann aber Schluss.

    Es gibt viele technologische Gefahren, KI ist nur eins davon.

    Wer weiß, ob es mal so weit kommt, dass Inception Realität wird.

    Bewusstseinskontrolle ist da auch noch eine Möglichkeit.




    Aber ich denke, denen geht’s ums Geld, wie immer. Hirndaten als neuer Petrodollar.

    Gab da mal ein Start-up aus Israel, die angeblich mit Gesichtserkennung die sexuellen Präferenzen, psychische Störungen und IQ erkennen soll. Also Richtung Precrime. Harari hat da ja mal gesagt, wenn er eine KI gehabt hätte, wäre es einfacher gewesen, mit seiner Sexualität umzugehen.^^

    Weiß nicht, inwieweit die das durchziehen wollen, und können

    Ich sehe es als einen weiteren Schritt in die falsche Richtung.

  • Der Pflegeersatz in Krankenhäusern oder Altenheimen ist mir noch eingefallen. Das würde den Patienten angesichts der aktuellen Zustände nur zugutekommen.

    Abgesehen davon wäre das in einer nicht-kapitalistischen Gesellschaft eine reine Win-win-Situation, wenn Menschen dafür nicht länger arbeiten müssten und mal tatsächlich so etwas wie "Freizeit" in ihrem Leben hätten. Könnten gerade die ausgelasteten Pflegekräfte mal ganz gut gebrauchen.

  • Ein Gedanke, der mir bei der ganzen Technologie-Debatte über autonomes Fahren etc. etwas zu kurz kommt, ist aber der enorme Kostenfaktor. All diese netten Spielereien kosten nämlich blöderweise (oder glücklicherweise?) irre viel Geld. So ein autonom fahrendes Auto braucht halt auch nicht nur eine KI, die es steuert, sondern die nötigen Sensoren, Kameratechnik, und so weiter... Für das Geld kann man vier oder fünf herkömmliche Autos produzieren. Und die konnte man früher zur Not sogar selbst reparieren, wenn sie kaputt gehen, heute können das nicht mal mehr ausgebildete Mechaniker, sonder nur jemand, der über die nötige Software verfügt und viel Geld für das Reparieren des Autos kassiert.

    Ich bezweifle, dass dies ein langfristig einfließender Faktor wäre. Auch die Computertechnik wurde anfangs sehr massiv unterschätzt, aber mit fortschreitender Entwicklung hat die Herstellung der immer besser werdenden Geräte einen Punkt des neuen Standards erreicht, sodass heutzutage ziemlich jeder einen Rechner bei sich zu Hause stehen hat.

    Irgendwann wird die Menschheit an einen Punkt kommen, wo sie sich fragen muss:

    Wie viel Entwicklung ist eigentlich wirklich sinnvoll, und ab wann wird es unnötiger Luxus? Und wollen wir in Zukunft wirklich einen Großteil unserer Lebenszeit nur dafür arbeiten, um uns teure Technikspielereien leisten zu können, die uns hier und da ein bisschen Arbeit abnehmen?

    Haben wir diesen Punkt nicht schon längst überschritten - in vielerlei Hinsicht?

  • Ich bezweifle, dass dies ein langfristig einfließender Faktor wäre. Auch die Computertechnik wurde anfangs sehr massiv unterschätzt, aber mit fortschreitender Entwicklung hat die Herstellung der immer besser werdenden Geräte einen Punkt des neuen Standards erreicht, sodass heutzutage ziemlich jeder einen Rechner bei sich zu Hause stehen hat.

    Es ist nicht nur ein Kostenfaktor, sondern auch Ressourcen spielen da im Allgemeinen eine wichtige Rolle. Ein weiteres Problem ist die Infrastruktur, die kann man nicht einfach mal so aus dem Boden stampfen.


    Es wird noch sehr lange dauern, bis Roboter in der Pflege sinnvoll eingesetzt werden können. Es wird sicher einfacher, aber den Menschen kann man noch nicht ganz ersetzen. Das Pflegepersonal müsste zudem noch andere Kompetenzen mit sich bringen.


    Natürlich haben wir diesen Punkt schon lange erreicht. Wir sind abhängig von der Technologie aber sie auch von uns. Nur jetzt stehen wir wieder einmal vor der Gefahr unsere Kontrolle an sie zu verlieren.

    Das kann gut sein, kann aber auch schlecht sein. Wirf ne Münze.

  • Zaibatsu, was ist eigentlich mit deinen nicht vorhandenen Zitaten los? ;) Ich muss deswegen mühsam nachschauen, worauf du dich gerade beziehst.


    Es wird noch sehr lange dauern, bis Roboter in der Pflege sinnvoll eingesetzt werden können. Es wird sicher einfacher, aber den Menschen kann man noch nicht ganz ersetzen. Das Pflegepersonal müsste zudem noch andere Kompetenzen mit sich bringen.

    Von einem vollständigen Ersatz war nicht die Rede, oder?

    Einen solchen stelle ich mir für bestimmte Personengruppen - wie ältere oder einsame und sozialbedürftige Menschen - sowieso etwas fraglich und unwürdig vor. Zuspruch und tröstende Worte vom Personal lassen sich durch keine Blechbüchsen ersetzen, zum Beispiel in Altenheimen, wo die Menschen (häufig ohne großen Kontakt zu ihren Familien) vor sich hin rotten.

    Aber zurück zur Pflege im Krankenhaus: Wenn ich selbst die Wahl hätte, würde ich mich lieber von einer Maschine versorgen lassen als von überarbeiteten, genervten menschlichen Kräften mit unzureichendem Fachwissen. Ich denke, auf gewisse Weise würde ich mich dadurch autonomer fühlen (es ist generell nicht sonderlich angenehm, aus gesundheitlichen Gründen auf andere Menschen angewiesen zu sein, gerade auf fremde) - aber auch intime Pflegeprozesse würden vielen sicher etwas würdevoller erscheinen, wenn sie dabei allein sein könnten.

    Viel wichtiger erschiene es mir, Menschen in meinem Leben zu haben, die sich wirklich dafür interessieren, wie es mir geht - und die können ja nach einem schauen, wenn sie das wollen, ganz unabhängig davon, ob ein Mensch oder ein Roboter einen Katheter wechselt.


    Aber vermutlich könnte man es sich sehr bald nicht mehr aussuchen, welche Art der Versorgung man präferiert, denn wenn der technologische Fortschritt eine Automatisierung diverser Arbeitsschritte ermöglicht, dann wird das über kurz oder lang auch zum neuen Standard.

    Vielleicht könnte man solche Standards allerdings auch etablieren, ohne dass sie gruselig oder unmenschlich wären. Pflegeberufe könnte man dann z.B. so umgestalten, dass sie sich mehr auf psychische Bedürfnisse konzentrieren und weniger auf physische Belange. Man müsste menschliche Zuwendung ja nicht komplett wegstreichen, nur weil ein Roboter ein paar Aufgaben übernimmt. Eher könnte man sie sogar ausweiten und den Bedürfnissen der Patienten viel stärker entgegenkommen, weil die nötigen Kapazitäten frei würden.

    Bloß liegt die Betonung wirklich auf "könnte", denn die große Frage ist schließlich, ob das auch in der Praxis so umgesetzt werden würde. Menschliche Zuwendung wird ja bei sowas oft eher zweitrangig behandelt und vernachlässigt - zugunsten des Einsparpotenzials. Im schlechtesten Fall würde persönlicher Kontakt dann zu nem Luxusgut mutieren, das man sich leisten können muss - und ja, das wäre für Menschen, die niemanden haben, der sich freiwillig kümmert, schlimm. Da müsste also schon so etwas wie eine Grundversorgung gewährleistet sein.

    Andererseits, wenn man bedenkt, dass das psychische Wohlbefinden eines Patienten auch einen großen Einfluss auf Genesungsprozesse hat, könnte man das vielleicht sogar wirtschaftlich vertreten, wenn reiner Humanismus als Argumentationsgrundlage nicht zieht. :D


    Und freilich ist das alles aktuell komplett unwichtig, weil unrealistisch. Aber ich denke auch nicht an einen Austausch ganzer Versorgungsprinzipien, sondern an eine Erleichterung in Zonen, die für fast niemanden sehr angenehm sein dürften.

    Auch für die Pfleger nicht, die ja auch darunter leiden, im Zeitdruck kaum die Möglichkeit auf einen Austausch haben, obwohl die meisten gewöhnlichen Menschen, die sehr viel Zeit in ihrem Zimmer verbringen, diesen dringend benötigen.


    Ein Vorteil, den ich insgesamt noch sehe, ist, dass Pflegeroboter eine große Erleichterung für berufstätige Menschen darstellen würden, die ihre Angehörigen so lange wie möglich bei sich zu Hause selbst pflegen wollen.

    Je mehr Belastungen bei der Pflege eines Menschen wegfallen würden, desto eher würden Leute das als machbar empfinden, ohne sich selbst dabei zu überfordern.