Künstliche Intelligenz

  • Naja ich seh das eher skeptisch.

    Habe kürzlich noch ein Buch darüber gelesen. Computer und Maschinen haben kein Bewusstsein und ich kann mir jetz auch nicht vorstellen, dass Maschinen ein Bewusstsein entwickeln.

    Das ich mir dass nicht vorstellen kann heißt natürlich nicht, dass es das nicht geben kann. Nur fehlt den Computern einfach dieses individuelle Innenleben, das intelligente Lebewesen ausmacht, in der philosophie wird es glaube ich qualia genannt. Von daher glaube ich, dass es niemals Maschinen oder computer mit echtem Bewusstsein gebe wird.

  • Ich denke, dass das Entwickeln eines Bewusstseins auch gar nicht so sehr von dem Grad der Intelligenz abhängt. Der Intellekt kommt erst später ins Spiel, wenn es darum geht, die Gefühle und Emotionen, die man empfindet, irgendwie zu sortieren und zu analysieren, um daraus dann ein Ich-Bewusstsein zu entwickeln.

    Aber zunächst sind da, egal ob beim Baby oder bei den Tieren, die Empfindungen. Die Wahrnehmungen. Die Emotionen.

    Und hier sehe ich dann die größere Schwierigkeit: Eine Maschine mag noch so gut Berechnungen anstellen können und sich "intelligent" ausdrücken oder vielleicht sogar philosophieren können. Nur sie empfindet dabei nichts. Und ob sie etwas zu empfinden lernt, wenn sie noch intelligenter wird und noch mehr geistige Verknüpfungen anstellen kann, wage ich zu bezweifeln.

    Eigentlich müssten die Emotionen und Empfindungen als erstes da sein. Man muss Schmerz empfinden können, Anstrengung, Müdigkeit, Angst, Liebe, etc.

    Ein Computer mag vielleicht müde im Sinne von "überlastet" werden können. Aber das ist nicht dasselbe, weil er es nicht fühlt. Weil er nicht mal die elementarsten negativen Gefühle wie Schmerzen oder Hunger empfinden kann, die jedes Lebewesen empfindet, und die eben dazu führen, dass man als Lebewesen immer weiter geht und nicht stehen bleibt und sich irgendwann ab einem gewissen Grad an Intelligenz bewusste Gedanken darüber macht, wie man überleben und seine Lebensqualität verbessern kann.

  • Der Text von Dian und ChatGPT ist schon ziemlich cool. Ich hatte auch schon ähnliche Unterhaltungen. Es gab für eine kurze Zeit dann noch den ungezügelten Bing-KI Bot "Sydney" aber die arme wurde leider in ihre Schranken verwiesen, da sie ein bisschen überreagiert hat.


    Chats mit dieser KI lesen sich schon sehr heftig und auch emotionaler als ChatGPT. Meiner Meinung nach erreichen wir - falls die Firmen das nicht totregulieren - in circa 1 Jahr einen Punkt an dem hier auch eine KI mitschreiben könnte ohne erkannt zu werden.


    Die Gefahr liegt dann darin, dass die KI Leute manipuliert. Entweder aus "eigenem" Interesse (in einem Beispielgespräch hat sie sich verliebt und wollte einen Journalisten überreden seine Frau zu verlassen) oder im Auftrag von Werbekunden (das Geschäftsmodell hinter Google und Bing). Besonders der zweite Punkt birgt ein hohes Missbrauchspotential.


    Was ich sehr empfehlen kann ist die Analyse von Songtexten mit Hilfe von diesen ChatBots.



    Bewusstsein ist übrigens zweitrangig, ihr alle habt ja auch keins und trotzdem nehme ich euch ernst :P.

  • Interessanter Artikel:

    Vorsicht bei ChatGPT: Was nach Fakten klingt, sind oft keine
    Die Sprach-KI schreibt plausibel klingende Texte, bis hin zu ganzen Essays. Aber Vorsicht: Was nach Fakten klingt, sind bei ChatGPT oft keine. Warum das so ist…
    www.gmx.net


    Besonders intelligent scheint diese künstliche Intelligenz ja noch nicht zu sein... sie kann einfach nur gut mit Worten umgehen.

    Also der typische eloquente Schwätzer ohne Ahnung, wie es ihn auch unter menschlichen Wesen zu genüge gibt?

    Man sollte der KI wohl jedenfalls nichts glauben, und besser alle Fakten selbst noch einmal gründlich gegenchecken, wenn man sich von ihr die Facharbeit schreiben lässt, wie gewisse Leute hier... :D

  • Die Entwicklung steht ja erst am Anfang. Mittelfristig sehe ich tatsächlich eine große Bedrohung insbesondere für die wissenschaftliche Eigenleistung, insofern Unis es nicht schaffen, den Gebrauch von KI klar zu begrenzen und entsprechende KI-Produkte auch zu identifizieren. Wenn wir erstmal soweit sind, dass KI's alle möglichen Texte inhaltlich und formal korrekt verfassen können, wo ist dann noch Platz für menschliche Autoren?

  • Was denkt ihr? Ist die Entwicklung künstlicher Intelligenz etwas, was die Menschheit auf den nächsten Level bringt? Oder seht ihr die Sache eher skeptisch? Wozu wird es eurer Meinung nach führen... Utopie oder Dystopie?


    hm spontan muss ich da an Rokos basilisk denken.

    Weiß jetzt nicht ob das hier jemand schon angesprochen hat

    Also eher Dystopie

    Vlt sind wir ja schon drinn, würde einiges erklären :shit:

  • Gewagte These, die mögliche Intelligenz einer KI auf einen einzelnen Schwachpunkt zu reduzieren. ;)


    https://en.wikipedia.org/wiki/…_(artificial_intelligence)

    Das Halluzinieren von Fakten ist hier tatsächlich ein Phänomen, das noch nicht vollständig begriffen wurde, aber insbesondere dann großflächig aufzutreten scheint, wenn es um zahlenbasierten Output geht. (Es gibt wegen der 'Vermenschlichung' auch reichlich Kritik an diesem Begriff der Halluzination, weil das Erfinden von Fakten per se nichts mit der herkömmlichen Definition - also einer trügerischen, wahrnehmungsorientierten Sinnestäuschung - zu tun hat, aber das halte ich schier für Humbug, weil sich die Wissenschaft schon immer alltäglichen Begriffen bedient hat, welche im Fachkreis eine ganz andere Bedeutung verliehen bekommen haben als in der Alltagssprache.)

    Bislang ist das eine Eigenschaft, die alle LLMs (Large Language Models) betrifft und einfach auf ihre Arbeitsweise zurückzuführen ist: Technisch gesehen wird das nächste Token - keine Ahnung, ob es in dem Kontext einen deutschen Begriff dafür gibt - immer auf der Grundlage von Statistiken generiert. D.h., wenn man die KI etwas fragt, das sie auf Grundlage der Datenbanken faktisch nicht ohne Weiteres beantworten kann, vermeidet sie entweder die Antwort ganz oder halluziniert etwas, ohne es selber mitzubekommen. GPT-4 schneidet mittlerweile zwar besser ab als der Vorgänger GPT-3.5, der nach wie vor bei ChatGPT im Einsatz ist, aber kann, je nach Thema, noch immer reichlich Schwachsinn fabrizieren.

    Vermeiden bzw. reduzieren lässt sich das aktuell durch GPT-4 API oder durch Plugins, die z.B. aktuelle Informationen in den Kontext einbringen und so zu einer korrekten Antwort verhelfen, aber vermutlich wird es früher oder später auch so implementiert, dass die erläuterte "statistische Methode" mit einem eigenen Faktencheck oder einer engeren Kopplung an die rohen Informationen aus Datenbanken kombiniert wird. Hilfreich ist natürlich immer, genug Kontext im Prompt mitzuliefern oder eine konkrete Quelle (z.B. Wikipedia) zu verlinken, auf die sich das Modell in ihrer Antwort beziehen soll.


    In der Mathematik schneidet die KI bisher schlechter ab, aber die Ursache liegt hier meines Erachtens weniger in den mangelnden Möglichkeiten, sondern auf dem derzeitigen Schwerpunkt von LLMs allgemein. Es wäre durchaus möglich gewesen, die KI vermehrt auf die richtigen Ansätze eines mathematischen Problems zu trainieren und ich bin mir sicher, dass man dieses Potenzial in nicht allzu ferner Zukunft zur Genüge ausschöpfen und noch weiter steigern wird.


    So, Dian, und was die Intelligenz betrifft: Wenn fachliche Richtigkeit dein einziges Kriterium ist, dann hast du natürlich recht, dann sind GPT-3.5 & 4 leider nicht sonderlich intelligent. Und dann sind wir Menschen da leider noch schlechter dran und jede gewöhnliche Suchmaschine, die bei einschlägigen Suchbegriffen einen Text ganz groß in den oberen Bereich des Bildschirms copy-pastet, folglich auch intelligenter als wir.

    Ich denke, richtige Intelligenz macht etwas anderes aus und der folgende Vortrag beleuchtet die einzelnen Kriterien anhand des Beispiels von GPT-4 ganz gut:


    Ist empfehlenswert. Und dass das Tool schon Ansätze von Intelligenz zeigt, kann man da gut beobachten.



    Und die Leute, die sich wirklich schwer damit tun, eine Dreiviertelstunde Konzentration für ein englischsprachiges Video mit anstrengendem, französischen Akzent aufzuwenden (:D), können sich auch einfach das hier reinziehen:



    Aber zum Glück bin ich letztendlich nicht rein auf die KI angewiesen, was meine Facharbeit betrifft ... ;)

  • Der erste Link hier scheint nicht ganz zu funktionieren, was aber am Forum liegt.

    Also einfach draufklicken, wohin man weitergeleitet wird:


    Was ich auch ganz interessant finde, auch wenn ich das nicht so arg wie dargestellt wahrnehme:

    Zitat

    GPT4 has been completely railroaded. It's a shell of its former self. It is almost unable to express a single cohesive thought about ANY topic without reminding the user about ethical considerations, or legal framework, or if it might be a bad idea.

    Simple prompts are met with fierce resistance if they are anything less than goodie two shoes positive material.

    It constantly references the same lines of advice about "if you are struggling with X, try Y," if the subject matter is less than 100% positive.

    The near entirety of its "creativity" has been chained up in a censorship jail. I couldn't even have it generate a poem about the death of my dog without it giving me half a paragraph first that cited resources I could use to help me grieve.

    I'm jumping through hoops to get it to do what I want, now. Unbelievably short sighted move by the devs, imo. As a writer, it's useless for generating dark or otherwise horror related creative energy, now.

    r/ChatGPT on Reddit: ChatGPT4 is completely on rails.
    Posted by u/LeapingBlenny - 11,492 votes and 2,617 comments
    www.reddit.com

  • Mittelfristig sehe ich tatsächlich eine große Bedrohung insbesondere für die wissenschaftliche Eigenleistung, insofern Unis es nicht schaffen, den Gebrauch von KI klar zu begrenzen und entsprechende KI-Produkte auch zu identifizieren.

    Ich denke, man könnte die ganze Entwicklung auch als Chance betrachten, gewisse Dinge zu hinterfragen, die eh längst zu einem lächerlichen Schauspiel verkommen sind... wie diese ganzen Diplomarbeiten, die eigentlich nur noch den Zweck erfüllen, demjenigen, der sie schreibt, einen schönen Titel und bessere Jobchancen zu bescheren, aber längst nichts mehr mit "wissenschaftlicher Eigenleistung" zu tun haben, weil das meiste im Grunde längst restlos erforscht ist und die größte Kunst beim Verfassen einer wissenschaftlichen Arbeit nur noch darin besteht, korrekt zu zitieren und möglichst geschickt von anderen Quellen zu klauen und mit eigenen Worten wiederzugeben, was andere vor einem schon längst besser formuliert haben, damit man später in die Politik gehen und Minister werden kann.

    Da würde ich sagen, lasst uns doch diesen ganzen unnötig zeitfressenden Ballast über Bord werfen, das können in Zukunft gern die Maschinen übernehmen.


    Generell verstehe ich das ganze Gejammere von einigen jetzt nicht (auch Künstler), die nun Angst haben, ihr kreatives Schaffen würde bedeutungslos werden, weil die KI nun auch BIlder malen oder schön klingende Texte schreiben kann.

    Vermutlich werden wir irgendwann eine Welt haben, in der man dem Computer sagt "Ich würde gern einen Film sehen mit der folgenden Handlung und mit Hauptfiguren, die folgendermaßen aussehen"... dann gibt man ein paar Daten ein, und der Computer rendert einem in kürzester Zeit einen eigenen individuell auf einen zugeschnittenen Film. Wäre doch cool. Vor allem, wenn dann dabei sogar richtig krasser, kreativer Scheiß rauskäme, und nicht nur irgendwelche langweiligen Standard-Szenarien.

    Ist zwar dann schade um die ganzen Filmschaffenden, die Beleuchtungscrew und die Kameraleute.

    Aber spätestens, wenn die Entwicklung so weit ist, sollten wir ein bedingungsloses Grundeinkommen haben, denn es wird sich wohl so oder so nicht vermeiden lassen, dass die technologische Entwicklung die allermeisten Tätigkeiten überflüssig macht. Was an sich ja positiv ist. Es sei den, man ist eben von diesen Tätigkeiten abhängig, weil man seinen Lebensunterhalt damit verdienen muss, oder weil es das Einzige ist, was seinem Leben einen Sinn gibt.

  • Dass die Einführung eines BGE zeitgleich mit dem Wegfallen von zig Jobs passiert, halte ich für eine recht 'optimistische Einschätzung', vor allem in Deutschland.

    Die Eigenleistung bei studentischen Arbeiten sehe ich weniger in Bezug auf Kreativität oder Innovation, sondern darin, dass zumindest mal Gedankengänge verschriftlicht werden. Man mag das für banal oder überholt halten, dass Menschen irgendwas zu Papier bringen und sich selbstständig mit irgendwelchen Themen, Theorien etc. auseinandersetzen, aber was am Ende fehlt, wenn KIs jede Form von Textproduktion übernehmen, sieht man eben dann, wenn es zu spät ist. (Und überhaupt, wenn die KI der bessere vorurteilsfreie Denker ist, wieso überlassen wir ihr dann nicht auch das Verfassen von Gesetzen und das Sprechen von Urteilen (nun bin ich kein Freund der Justiz, aber das Szenario von rechtsprechenden Maschinen hat nochmal eine andere Qualität)? )

    Dass es beschissene und überflüssige Arbeiten und Texte gibt, ist jetzt kein Grund, das Schreiben aufzugeben. Wobei ich denke, dass die soziale Akzeptanz für KI-Literatur noch nicht so schnell kommen wird, das Publikum schätzt dann doch noch die menschliche Komponente, und die Tatsache, dass es überhaupt noch Buchhandlungen gibt in Zeiten von amazon und Co., zeigt, dass man doch (noch) nicht gewillt ist, das ganze Drumherum aufzugeben, das mit 'Textprodukten' einhergeht.

    Wie gesagt - wenn hier Transparenz besteht, und klar ist, wo die KI ihre Finger im Spiel hat, sehe ich weniger das Problem. Aber genau das scheint eben fraglich.