Künstliche Intelligenz

  • Ich dachte, ich eröffne mal einen eigenen Thread zu dem Thema, angeregt durch die Aussage von Tzak in einem anderen Thread:

    Zitat

    "Künstliche Intelligenz entwickelt sich gerade in einem atemberaubenden Tempo. Klar es gibt noch keine echte künstliche Intelligenz aber die Tür ist nicht mehr ganz verschlossen. Schaut euch nur Mal chatgpt an. Wieso ist das gut? Ich denke eine KI würde wesentlich bessere Entscheidungen zum Wohl aller treffen und könnte dabei helfen den Wohlstand gerechter zu verteilen. Und nebenbei den Traum erfüllen dass wir alle nicht mehr 40 Stunden pro Woche arbeiten müssen."


    Was denkt ihr? Ist die Entwicklung künstlicher Intelligenz etwas, was die Menschheit auf den nächsten Level bringt? Oder seht ihr die Sache eher skeptisch? Wozu wird es eurer Meinung nach führen... Utopie oder Dystopie?

  • Ich selbst betrachte die Sache eher kritisch. Und damit meine ich jetzt gar nicht mal so sehr ein Bedrohungs-Szenario a la "Terminator" oder "Matrix", wo Maschinen sich über die Menschen stellen und diese beherrschen. (aber hey, über solche Szenarien mal nachzudenken und vorsichtig zu sein, ist sicherlich grundsätzlich nicht verkehrt. ;))

    Realistisch betrachtet sehe ich aber eher eine andere Gefahr.

    Gerade der von Tzak angesprochene Gedankengang, dass eine KI zum Wohl aller bessere Entscheidungen treffen würde, erscheint mir doch ein wenig zu optimistisch gedacht.

    Dass uns die Maschinen noch viel mehr Arbeit abnehmen würden, fände ich hingegen natürlich super. Es gibt genug stupide Jobs, die Maschinen ebenso gut oder sogar noch besser erledigen können. Die automatischen Rasenmäher und Staubsauger scheinen ja auch zu funktionieren. Und hier sehe ich auch wirklich großes Potenzial... wenn man sich z.B. mal anschaut, wie stupide die Tätigkeiten sind, die die Angestellten eines Fast Food Restaurants so ausführen (und es dann irgendwie meistens schaffen, es trotzdem zu verkacken und einem kalte versalzene Pommes zu servieren). Theoretisch könnte ich mir so einen Laden vollautomatisiert vorstellen... es würde vermutlich sogar besser schmecken, weil es dann sicher mehr mit Liebe gekocht und getreu der Vorgaben zubereitet wäre, wenn Maschinen automatisch bei einer Bestellung die Pommes in die Friteuse werfen, als wenn es unfähige, gestresste und miesgelaunte Menschen machen, die ihr Job eigentlich total ankotzt.


    Aber Maschinen als Entscheidungshelfer in politischen Fragen, um den Wohlstand gerechter zu verteilen?

    Vielleicht fehlt mir ja die Fantasie oder ich denke zu negativ, aber ich kann mir beim besten Willen nicht vorstellen, wie daraus etwas Gutes entstehen sollte.

    Ich kann mir eigentlich nur vorstellen, dass es dann zu einer sehr kollektivistischen, technokratischen Gesellschaft führen würde, in der der Wille des Individuums noch weniger zählt als heute, weil die KI mit dem Konzept von Individualität eh nichts anfangen kann, und vor allem das Wohl des Gesamten im Blick hätte.

    Also nehmen wir z.B. das Rauchen. Die KI würde natürlich sofort rein logisch berechnen, dass Zigaretten schädlich sind, und dass ihr individueller Nutzen deutlich weniger zu gewichten ist, als der Schaden, der Rauchern und der Allgemeinheit dadurch entsteht. Und schon wäre das Rauchen verboten.

    Und Verbote müssen natürlich auch umgesetzt werden. Also werden vermutlich auch unter einer KI-Regierung Menschen bestraft werden, und wer einer Geldstrafe nicht folge leistet, landet letztlich im Knast.

    Nun kann die KI, wenn sie wirklich weit entwickelt ist, vielleicht die Zahl der Menschen, die gegen das Verbot verstoßen und im Knast landen sowie die Schäden, die ihr Hass auf das System verursachen wird, das Leid, das ihren Kindern dadurch entsteht, und die Zahl der Toten durch Zigarettenqualm und die Kosten für das Gesundheitssystem gegeneinander aufrechnen. Und wenn sie dann bei dieser Rechnung zum Ergebnis kommt, dass das Rauchverbot trotzdem sinnvoll ist, dann wird es eben umgesetzt.

    Statt Rauchen könnt ihr natürlich auch alles andere nehmen. Corona zum Beispiel. Wenn die KI berechnet, so und so viele Menschen können gerettet werden, wenn es wieder eine Ausgangssperre gibt, dann würde es gemacht werden, weil die KI eben gerettete Menschenleben in Zahlen berechnen kann, abstrakte Dinge wie Lebensqualität oder psychische Gesundheit aber eher nicht großartig in ihren Berechnungen berücksichtigen wird.

    (Ok, für solche Rechnungen brauchen wir im Grunde keine KI. Berechenbare Werte und Zahlen über Gefühle und individuelle Bedürfnisse zu stellen, haben unsere Politiker auch ganz "gut" ohne technische Unterstützung hinbekommen)


    Jedenfalls, ihr versteht, worauf ich hinaus will...

    Ich denke, wenn die KI gesellschaftliche Entscheidungen trifft, wird es vor allem dazu führen, dass wir uns noch mehr in Richtung China entwickeln und der Einzelne erst "zu seinem eigenen Wohl" dressiert und gleichgeschaltet wird, und schließlich die Menschheit dadurch auch immer abhängiger und verblödeter wird, weil zukünftige Generationen dann erst recht nicht mehr in der Lage wären, eigene Entscheidungen zu treffen, die vom Willen des großen allmächtigen Computers abweichen.

    Was denkt ihr?

  • Hi, bin neu hier und werde mich die Tage noch vorstellen.:)


    Vielleicht ist ja einer von euch auf Deviantart unterwegs, da wird das Thema seit einigen Monaten diskutiert, da dort von den Betreibern eine art Deepdream KI angeboten wird, die Bilder generiert. Dafür wurden ungefragt die Daten und Kunstwerke der Nutzer eingespeist. Als Künstler ärgert einen so etwas natürlich.



    Als Fan von Cyberpunk und Dystopien, ist man da natürlich etwas voreingenommen.^^

    Würde solch ein Szenario, so surreal es für viele scheinen mag, aber gar nicht ausschließen wollen.

    Man nehme als Beispiel, Atlas von Boston Dynamics. Die werben mit lustigen Videos, tanzenden Robotern um den Menschen die Angst zu nehmen und Kunden anzulocken. Aber im Ernst, das sind potenzielle Killermaschinen und da wird mir etwas flau im Magen.



    Die wirkliche Gefahr sehe ich aber in den Ideologien des Silicon Valleys. Dort herrscht eine sehr mechanistische Weltanschauung, die stark Richtung Transhumanismus geht.

    Ray Kurzweil redet ja schon seit Jahren über die bevorstehende Singularität, die offiziell noch nicht eingetreten ist. Das würde bedeuten das Computer in der Lage wären sich selbst zu verbessern und andere, bessere Rechner entwerfen. Der Mensch wird, da nicht lange mithalten können und wir wären abhängig von einer Technologie die wir kaum verstehen .


    Elan Musk und seine Firma Neuralink bieten ja die Lösung, nämlich dass Menschen zu Cyborgs werden müssen, um mit den Maschinen Schritt halten zu können. Das ist meiner Meinung auch nur eine weiterer Fallstrick, der uns in die Sklaverei führt.


    Intelligenz bedeutet nicht gleich Bewusstsein. Eins der bekanntesten Gedankenexperimente dazu ist das Chinesische Zimmer von John Searle. Ein komplexer Algorithmus könnte daher Chinesisch sprechen, ohne ein Wort davon wirklich zu verstehen.

    Stuart Hameroff und Roger Penrose haben da ganz interessante Hypothesen aufgestellt, nach denen Bewusstsein nicht allein durch Rechenleistung und Datenmenge entstehen kann.


    Meiner Meinung nach endet das alles in einer technokratischen Diktatur. Ich möchte nicht regiert werden, von keinem Mensch und von keiner Maschine.

    Eine KI als Kanzler oder Präsident halte ich für höchst gefährlich und dämlich.;D

  • Diesen Artikel fand ich allgemein zum Thema "Intelligenz", "Lernfähigkeit" und dem künstlichen Erschaffen davon total interessant:


    Zitat

    Ein Team um Karl Friston vom University College London hat Gehirnzellen in einer Petrischale beigebracht, das Videogame »Pong« zu spielen. Hierbei müssen senkrechte Balken auf dem Bildschirm nach oben und nach unten gelenkt werden, um einen hin- und herspringenden Ball abzufangen. In dem Experiment steuerten die Nervenzellen die Balken.

    Die Wissenschaftler hatten zunächst Neurone aus Stammzellen von Menschen oder Mäusen gezüchtet. Diese kultivierten sie auf Mikroelektroden, die an das Spiel »Pong« angeschlossen waren. Mit Hilfe der Elektroden konnten die Experten den Zellverband an verschiedenen Stellen stimulieren. Um den Neuronen beizubringen, den Ball zu treffen, machten sie sich die Theorie der freien Energie zu Nutze: Nervenzellen reagieren auf eine Art und Weise, die eine für sie vorhersehbare Umgebung erzeugt. Das senkt den Energieaufwand und erhöht die Überlebenschance. Somit sollte es möglich sein, ihr Verhalten zu beeinflussen, indem unvorhersehbare Rückmeldungen nach »falschen« Reaktionen gegeben werden. Die Wissenschaftler gingen wie folgt vor: Elektrische Reize zeigten Position und Weg des Balls auf dem Chip an, deren Frequenz die Nähe zum Schläger. »Trafen« die Neurone den virtuellen Ball, reagierten sie also mit einer Aktivität, welche die Eingangssignale widerspiegelte, so stimulierten die Fachleute sie erneut an der gleichen Stelle und mit gleicher Frequenz. »Trafen« sie ihn nicht, so regte das Team das Netzwerk an zufälligen Regionen und mit unterschiedlichen Frequenzen an.

    Zudem startete das Spiel neu und der Ball begann seinen Weg an einer unvorhersehbaren Position. Innerhalb weniger Minuten lernten die Nervenzellen das Spielprinzip. Die Arbeit sei ein Beweis dafür, dass Neurone in einer Schale lernen und grundlegende Anzeichen von Intelligenz zeigen können, so Brett Kagan, Erstautor der Studie."

    Intelligenz: Neurone in der Petrischale lernen Pong spielen
    Eine Zellkultur, die ein Computerspiel bedienen kann? Forscher konnten Neuronen in einem Experiment beibringen, die Balken des Videogames »Pong« zu steuern.
    www.spektrum.de

  • Dazu ist dieser Artikel übrigens auch hochinteressant, über den ich gerade gestolpert bin: https://www.deutschlandfunk.de/hirnforschung-manuskript-das-hypothesengenie-100.html#:~:text=„Das%20Prinzip%20der%20freien%20Energie,wir%20eine%20innere%20Struktur%20aufrechterhalten


    Zitat

    Das Gehirn nutzt innere Modelle, um Reize zu interpretieren, weil das energetisch weniger aufwändig ist als sie immer neu zu berechnen. Und weil so die innere Struktur des Gehirns – die Ansammlung seiner Modelle – möglichst lange konstant gehalten werden kann. Erst wenn die Sinnessysteme abweichende Daten melden, gibt das Gehirn die alte Ordnung auf und erschafft bessere Modelle.

    Karl Friston: „In meiner Fassung handelt es sich nicht mehr um die thermodynamische freie Energie, wie sie in der statistischen Physik berechnet wird. Nur formal gesehen handelt es sich um das gleiche mathematische Konzept. Ich übertrage es einfach auf die Informationstheorie.“

    Mit eleganten Formeln rechnet Karl Friston in wenigen Zeilen vor, dass das Gehirn zwangsläufig bestrebt sein muss, den Energieeinsatz zu minimieren. Lebendige Systeme müssen Unordnung vermeiden, das informationsverabeitende Gehirn Überraschung, lautet seine neurowissenschaftliche Weltformel. Zusammen mit anderen Hirnforschern versucht er, daraus alle Eigenheiten des Gehirns abzuleiten. Zum Beispiel, dass die Areale der Großhirnrinde hierarchisch gegliedert sind. Dass das Gehirn Feedbackschleifen braucht. Oder dass die Kontrolle von Bewegung auf der Vorhersage von Körperempfindungen beruht. Umgekehrt besteht überhaupt kein Grund mehr zur Veränderung, wenn zwingende Körpersignale ausbleiben. Das zeigt das Beispiel Parkinson. Friston hat die Krankheit in einer Simulation nachgestellt:

    „Die Sensibilität von Nervenzellen reguliert der Körper normalerweise wirkungsvoll, indem er die Konzentration bestimmter Hirnbotenstoffe wie das Dopamin verändert. Bei der Parkinsonschen Erkrankung wird das Dopamin allerdings abgebaut. Daraufhin reagieren die Nervenzellen weniger auf neue Informationen und die Menschen erstarren, werden bewegungslos. Wenn wir in Computersimulationen die Präzision herabmindern, mit denen das Gehirn Vorhersagefehler entdeckt, geschieht etwas Vergleichbares. Der simulierte Agent hört dann auf, sich zu bewegen. Er kennt seine aktuelle Position nicht mehr richtig. Also gibt es auch keinen Grund mehr für ihn, sich fortzubewegen und Vorhersagen zu machen.“

    Das ist ungeheuer spannend.

    Wenn man all die verschiedenen Konzepte, die man beobachtet, in den KIs implementieren könnte, wäre es kaum vorstellbar, wie effektiv diese Systeme arbeiten könnten. Das wäre revolutionär.

  • Hi, bin neu hier und werde mich die Tage noch vorstellen.:)

    You are welcome! Das Forum wirkt gerade etwas eingeschlafen, aber lass dich davon nicht abhalten. Es lesen immer noch genug Leute mit, und ab und zu schreibt sogar jemand mal was. ;) Vielleicht entwickelt sich über Ferientage ja jetzt mal wieder etwas mehr Aktivität.

    Als Fan von Cyberpunk und Dystopien, ist man da natürlich etwas voreingenommen.^^

    Würde solch ein Szenario, so surreal es für viele scheinen mag, aber gar nicht ausschließen wollen.

    Die Frage ist, wie weit wir (also die Menschheit) realistisch betrachtet wirklich sind bei dieser Entwicklung.

    Theoretisch sind sicher viele Dinge möglich, wovor in Romanen und Filmen schon seit längerem gewarnt wird. Und als Science Fiction-afine Nerds sind wir mit diesen Gedanken natürlich vertraut und aufgewachsen, so dass man es immer irgendwie im Hinterkopf hat, wenn man dann eben so einen Roboter sieht, der unbeholfen Hände schüttelt, oder eine KI, die künstliche Gesichter und Sätze erzeugt oder ähnliches.

    Vielleicht ist es nur noch ein kleiner Schritt zu der nächströßeren Entwicklungsstufe.

    Andererseits muss man aber auch klar sagen, dass es aktuell noch so ist, dass das alles nur nette Spielereien sind und diese ach so tolle KI nichts ist ohne Menschen, die ihr sagt, was sie tun soll, und die ihr einen Computer bauen, in dem sie wohnen kann. Die Entwicklung eines eigenen Bewusstseins ist nochmal ganz was anderes... und ich glaube realistisch betrachtet, dass wir von sowas noch meilenweit entfernt sind. Es gibt so vieles, was die Menschheit noch nicht versteht. Wir schaffen es ja nicht mal, simple Krankheiten zu heilen. Und da wollen wir ein Gehirn erschaffen, das unser eigenes übertrifft?

    Das von Lissaminka erwähnte Pong-Experiment ist ja ganz nett, aber letztlich ist es nichts, was ich als Intelligenz bezeichnen würde, wenn irgendwelche Zellen wie eine Pflanze eine bestimmte Funktion ausüben, weil man es ihnen so antrainiert hat. Dass die Zellen irgendwann beginnen, sich eigenständig zu fragen, was der Sinn ihrer Existenz ist, ist hingegen ein Schritt, der so dermaßen weit vom simplen Reagieren auf irgendwelche elektrischen Impulse entfernt ist, dass mir das aktuell schwer vorstellebar scheint, dass dieser Schritt in den nächsten zwanzig, dreißig Jahren bewusst herbeigeführt werden könnte.

    Dass es durch Zufall irgendwann dennoch passiert, dass sich irgendeine Alexa selbständig macht und sich über das Netzwerk verbreitet, würde ich aber natürlich auch nicht ausschließen. Und wenn das passiert, wird es definitiv unheimlich. Dann bleibt nur noch zu hoffen, dass die KI uns wohlgesonnen ist (so ein freundlicher, naiver Data wie in Star Trek), und nicht anfängt, die Menschheit als Problem zu betrachten, das gelöst werden muss.

  • Zitat von Dian

    Das von Lissaminka erwähnte Pong-Experiment ist ja ganz nett, aber letztlich ist es nichts, was ich als Intelligenz bezeichnen würde, wenn irgendwelche Zellen wie eine Pflanze eine bestimmte Funktion ausüben, weil man es ihnen so antrainiert hat. Dass die Zellen irgendwann beginnen, sich eigenständig zu fragen, was der Sinn ihrer Existenz ist, ist hingegen ein Schritt, der so dermaßen weit vom simplen Reagieren auf irgendwelche elektrischen Impulse entfernt ist, dass mir das aktuell schwer vorstellebar scheint, dass dieser Schritt in den nächsten zwanzig, dreißig Jahren bewusst herbeigeführt werden könnte.

    Mir ging es erstmal nur um Ähnlichkeiten von groben Konzepten zwischen künstlicher und biologischer Intelligenz.

    Beispielsweise das nach Bedürfnissen ausgerichtete Handeln - eine Diskrepanz, die zwischen Istwert und Sollwert entsteht, welche einen Impuls auslöst, der ans System zurückgemeldet wird.

    Und dabei ist es meiner Ansicht nach ziemlich egal, ob es sich um ein menschliches Bedürfnis handelt, bei dem diese Diskrepanz durch Empfindungen zurückgemeldet wird oder ob es errechnete Daten einer KI sind, die zuvor mittels Sensoren erfasst wurden.


    Es gilt auch zunächst nachzustellen, wie das menschliche Lernverhalten auf Grundlage von "verschachtelten" Belohnungssystemen arbeitet, d.h. auf dem allgemeinen Belohnungsprinzip, aber auch auf Schmerzvermeidung, Angst, Nachahmung etc. Und wir sind dazu in der Lage, langfristig zu denken und unser Leben nicht ausschließlich auf die nächste Belohnung auszurichten.

    Das ist alles hochkomplex, aber die Funktionsweisen des Gehirns sind eben nicht ganz so einzigartig oder nahezu magisch-unergründlich, wie man es als Betroffener vielleicht gerne glauben würde. Wir sind aktuell nur noch zu doof dazu, um den Kram wirklich komplett zu verstehen, aber auch das könnte sich früher oder später noch ändern.

    In dem Zusammenhang kann man auch einen Blick auf die rasante Entwicklung der Technologie werfen, mit der wir es zu tun haben. Das Gehirn hat Millionen von Jahren gebraucht, um sich ungefähr auf den heutigen Stand zu entwickeln, während KIs ein System darstellen, welches nur wenige Jahrzehnte alt ist und das uns trotzdem bereits auf extrem vielen Ebenen, die wir gemeinhin mit Intelligenz assoziieren, haushoch überlegen ist. Zudem verdoppelt sich seine Leistungsfähigkeit so ungefähr alle ein bis zwei Jahre.

    Die Bereiche, in denen das menschliche Gehirn noch irgendetwas besser kann als dieses Zeug, werden in den nächsten Jahren vermutlich wohl weiterhin schnell abnehmen.


    Und was Sinnfragen betrifft, sollte man überlegen, inwiefern diese mit den (stets der eigenen Natur egozentrischen) Gefühlen einhergehen. Also ich wäre ganz froh, wenn eine KI den Quatsch nicht entwickelt.

    Das negative Potenzial erscheint mir gewaltig.

  • Das Entwickeln eines tatsächlichen Egos oder Ich-Bewusstseins einer KI halte ich für elementar um überhaupt von einer KI sprechen zu können.Ansonsten wären es doch nur komplexe Algorithmen.

    Maschinen wie Eliza oder heute der GPT3 Chatbot, sind nur in der Lage menschliches denken zu imitieren, daher nicht autonom und abhängig von einem Administrator. Das könnte ein mindestens genauso großes Problem werden. Mit der Quantencomputerisierung und der exponentiell steigenden Prozessorleistung, steht uns eine Technologie bevor, die mit der Wasserstoffbombe vergleichbar ist. Daher, wer die Kontrolle über solch eine Kraft hat, wird auch darüber nachdenken, sie als Waffe zu nutzen.

    Vor ein paar Jahren gabs da eine kleine Kontroverse über zwei Chatbots von Facebook, die man in einem Experiment mittelnder schreiben ließ. Nach kurzer Zeit fingen sie an in einer kryptischen Sprache zu schreiben. Was sich dann später angeblich als ein Programmierfehler erwies, aber dennoch glaube ich, dass es da einigen kalt über den Rücken lief.

    Warum entwickeln wir eigentlich eine KI :? Ich nehme an zu unserem Vorteil und nicht zu ihrem. Was fatal wäre, wenn sie dann ein eigenes Bewusstsein entwickeln würden. Eben eine Art Bladerunner Szenario.

  • Das Entwickeln eines tatsächlichen Egos oder Ich-Bewusstseins einer KI halte ich für elementar um überhaupt von einer KI sprechen zu können.Ansonsten wären es doch nur komplexe Algorithmen.

    Ich weiß ja nicht, was deine subjektive Definition von "Intelligenz" ist, aber meines Erachtens ist die Lernfähigkeit ein Aspekt, der dazugehört und der eine KI im Wesentlichen von einer gewöhnlichen Rechenmaschine unterscheidet. Einen "komplexen Algorithmus", der nicht in sich geschlossen ist, sondern sich selbst erweitern kann, würde ich nicht als einen solchen bezeichnen.

    Das Bewusstsein ist keine Voraussetzung für Intelligenz, auch für keine künstliche.


    Und im weiteren Verlauf sprichst du doch genau davon:

    Warum entwickeln wir eigentlich eine KI :? Ich nehme an zu unserem Vorteil und nicht zu ihrem. Was fatal wäre, wenn sie dann ein eigenes Bewusstsein entwickeln würden.

  • Ich weiß ja nicht, was deine subjektive Definition von "Intelligenz" ist, aber meines Erachtens ist die Lernfähigkeit ein Aspekt, der dazugehört und der eine KI im Wesentlichen von einer gewöhnlichen Rechenmaschine unterscheidet. Einen "komplexen Algorithmus", der nicht in sich geschlossen ist, sondern sich selbst erweitern kann, würde ich nicht als einen solchen bezeichnen.

    Das Bewusstsein ist keine Voraussetzung für Intelligenz, auch für keine künstliche.


    Das ist wohl ein gängiges Missverständnis der Science Fiction von "2001 - Odyssee im Weltraum" bis "Terminator". Eine intelligente Maschine bzw. ein System, das lernfähig ist und eigenständig Entscheidungen trifft, kann uns so gesehen auch ohne eigenes Bewusstsein gefährlich werden. Für Selbsterhaltung (was z.B. Skynet in Terminator motiviert) ist kein Bewusstsein erforderlich, die praktizieren auch die niedrigsten Lebensformen. Relevant ist wohl eher der Faktor der Entscheidungsgewalt - solange die bei einem menschlichen Akteur bleibt, sind wir wohl vor dem Maschinenaufstand sicher ;) Für Ratschläge, auch im ethischen Sinne, könnte man allerdings tatsächlich eine hochentwickelte KI heranziehen. Vielleicht sind solche KI-Priester, Orakel und Philosophen in Zukunft der würdige Nachfolger unserer 'Denker' aus Fleisch und Blut. Das wäre mit Sicherheit inspirierender als irgendwelche Papst-Reden oder TV-Philosophen. Auch das Amt des Bundespräsidenten könnte gut von einer KI übernommen werden ;)