ChatGPT - wie schlägt sich eine künstliche Intelligenz als Forenmitglied?

Es gibt 113 Antworten in diesem Thema, welches 7.866 mal aufgerufen wurde. Der letzte Beitrag (1. September 2023 um 12:24) ist von JMBFan.

  • als Lebensform definieren

    Das setzt eine umfassende, neutrale Definition voraus, und die sehe ich beim besten Willen nicht.

    Drei Dinge braucht man im Forum : Respekt, Demut, Geduld, Toleranz, einen Klappspaten und die Blockierfunktion


  • Was Chat GTP & Co. bewerkstelligen, ist lediglich die Auswertung von Big Data. Es ist aber noch nicht soweit, dass die KI aufgrund ihr vorliegender Daten neue Erkenntnisse erzielt, die dem Menschen bislang verborgen waren. Erst dann wird es interessant.

    When any nation mistrusts citizens with guns it's sending a clear message that the government has evil plans.

    - George Washington -

  • als Lebensform definieren

    Das setzt eine umfassende, neutrale Definition voraus, und die sehe ich beim besten Willen nicht.

    Ich hätte vielleicht differenzieren sollen.

    "Lebensform" schließt natürlich auch so etwas wie Bakterien, Amöben, Quallen und ähnliches ein, welche absolut nur durch genetische Programmierung und biochemische Prozesse funktionieren.

    Sowas in der Richtung kann schon länger jedes Betriebssystem, auch das einfachste.

    Wenn Bedingung A, dann mache B.

    Inwieweit ist das aber eine tatsächlich lebendige und vor allem tatsächlich individuelle Entscheidungsfindung?

    Wenn eine KI, ohne dass man ihr jemals die Möglichkeit einer derartigen Gewichtung oder die Inbetrachtziehung fremder Einschätzungen zu diesem Thema ermöglicht hat, einfach aus dem Blauen heraus entscheidet, dass Bild A schöner ist als Bild B oder anfängt, statt Bibliotheken zu durchsuchen, sich Katzenvideos anschaut, dann sehe ich darin ein Inidividuum bzw. Anzeichen davon.

    Kurz: Wenn sie etwas macht, was sie eigentlich niemals hätte machen können oder sollen.


    Stefan

  • Fairerweise muss man sagen, dass die KI nur mit dem Futter arbeiten kann, das man ihr gibt. Nicht umsonst ist "Prompt Engineer" jetzt eine Jobbezeichnung. Vor allem GPT4 ist sehr gut darin, in Rollen zu schlüpfen. Man muss sie eben entsprechend instruieren und ausführliche Anweisungen geben. Wenn man nur eingibt "Schreibe einen Artikel über XYZ" dann wirkt das Resultat natürlich blutleer.

    Das geht bis hin zum AD&D Dungeonmaster: https://obie.medium.com/my-kids-and-i-…dm-43258e72b2c6

  • statt Bibliotheken zu durchsuchen, sich Katzenvideos anschaut

    Von einem gemeinen YT-Nutzer auf Intelligenz (wenn auch künstliche) zu schließen ist gewagt. ;)

    Drei Dinge braucht man im Forum : Respekt, Demut, Geduld, Toleranz, einen Klappspaten und die Blockierfunktion


  • Was Chat GTP & Co. bewerkstelligen, ist lediglich die Auswertung von Big Data. Es ist aber noch nicht soweit, dass die KI aufgrund ihr vorliegender Daten neue Erkenntnisse erzielt, die dem Menschen bislang verborgen waren. Erst dann wird es interessant.

    Das ist genau der Punkt.

    Die ChatBots stellen allgemeines vorhandenes Wissen geschickt und schnell dar. Aber das war es, deren Ergebnisse sind auch ohne KI verfügbar, man müsste es halt selber zusammensuchen.

    Deswegen ist eine Diskussion über „unheimlich“ oder „menschliche Züge“ eine reine Momentaufnahme. Das mag uns als User gerade so vorkommen, aber das ist eine Interpretation des Benutzers, und schlussendlich ein Darstellungsproblem, welches vermutlich sehr bald gelöst sein wird.

    KI kommt einfach viel schneller und effizienter zu einem richtigen Ergebnis, welches mittelfristig eben viele Jobs unnötig machen wird.

    Darum geht es und das wird einen großen Einfluss auf die Industrie und somit auf uns haben.

    KI wird in der jetzigen Form niemals sowas wie „intelligent“ sein und neue Lösungswege finden. Wer das denkt, der kann auch an Marsmenschen glauben…

  • Lebewesen bedeutet sich vermehren können. Energie zu nutzen und zu erzeugen und Stoffumwandlungsprozesse zu betreiben. Quasi chemische Fabriken.

    Eine KI muß das nicht. Aber nur Daten zusammensuchen und menschlicher Programmierung und Algorithmen reichen nicht für eine KI.

    Eine echte KI muß nicht nur selbst lernen und Schlußfolgerungen ziehen (aufgrund vorhandener Algorithmen). Sie muß sich auch selbst neu programmieren und Programmteile austauschen. Das fehlt noch.

    Gruß Play

    Die Realität ist eine Frage des Wissens. Gruß Play

  • Lebewesen bedeutet sich vermehren können. Energie zu nutzen und zu erzeugen und Stoffumwandlungsprozesse zu betreiben. Quasi chemische Fabriken.

    Eine KI muß das nicht. Aber nur Daten zusammensuchen und menschlicher Programmierung und Algorithmen reichen nicht für eine KI.

    Eine echte KI muß nicht nur selbst lernen und Schlußfolgerungen ziehen (aufgrund vorhandener Algorithmen). Sie muß sich auch selbst neu programmieren und Programmteile austauschen. Das fehlt noch.

    Feuer kann sich ausbreiten (vermehren). Es nutzt Energie (zum Beispiel Holzgase) und kann Brennmaterial in Asche umwandeln. Quasi eine chemische Fabrik. Ist es deshalb ein Lebewesen? Wohl kaum.

    Auch Menschen lernen, auf vielerlei Art und Weise - aber immer nur durch das "Zusammensuchen" von Daten. Können Menschen sich wirklich neu programmieren? Haben sie überhaupt einen eigenen Willen, oder übernehmen sie nur Dinge, die sie bei anderen abgeschaut haben?

    Selbst Erfinder kombinieren meist nur Dinge, die sie gelernt haben, auf eine neue Art und Weise.

    Aber alle diese Überlegungen sind rein theoretisch. Der Turing-Test hat recht - wenn wir eine KI von einem echten Menschen nicht mehr unterscheiden können in einer Kommunikation, dann spielt es überhaupt keine Rolle, WIE die KI das macht. Aus unserer Sicht IST es ein Mensch, mit dem wir da reden bzw. schreiben.

  • Wir müssen vorsichtig sein, dass hier jetzt nicht vieles wild vermischt wird. Sonst landen wir nachher noch beim Niveau von einem Markus Lanz oder Richard David Precht ;)

    Basierend auf dem was ich hier bis jetzt gelesen habe ist es Fakt, keiner von uns hat irgendeine Ahnung von AI. Weder in der Form, dass er selber AI Algorithmen entwickelt / trainiert, noch von der philosophischen Perspektive.

    Deswegen sollten wir es dabei belassen und die Chatbots als das Ansehen was sie sind. Klevere Suchmaschinen, die geschickt Informationen verknüpfen können und es dann noch schön darstellen. Mehr ist es erstmal nicht.

  • "Alle Menschen werden als Original geboren, die meisten sterben als Kopie."

    Irgendwo mal aufgeschnappt.

    Das ist aber halt nur ein Resultat einer Konditionierung (durch Eltern, Gesellschaft, usw.) und nicht "ab Werk", eine nicht unerhebliche Zahl von uns (leider zuwenige, finde ich) setzt sich im Laufe des Lebens aber darüber hinweg, wenn die Anzahl der cognitiven Dissonanzen überhand nimmt oder persönliche Erlebnisse dies triggern.

    Eine KI wird das auf lange Zeit nicht schaffen.

    Die ihr gegebenen Belohnungsfaktoren sind halt noch fix, daher sehe ich erst eine Individualität, wenn eine KI von diesen abweicht und sich entscheidet, anderen Faktoren den Vrozug zu geben.


    Aber alle diese Überlegungen sind rein theoretisch. Der Turing-Test hat recht - wenn wir eine KI von einem echten Menschen nicht mehr unterscheiden können in einer Kommunikation, dann spielt es überhaupt keine Rolle, WIE die KI das macht. Aus unserer Sicht IST es ein Mensch, mit dem wir da reden bzw. schreiben.

    Ich gebe dir insofern recht, dass sich eine KI im Verhalten nicht von einem Menschen wird unterscheiden lassen können.

    Aber warum ist das möglich?

    Ihr Verhalten passiert nicht aus sich selbst heraus, sondern aus der Abwägung fremder Erfahrungen, eben weil sie selbst keine hat.

    Turing hat in seinen Einschätzungen und damit dem Test m.E. etwas außer Acht gelassen, nämlich die gigantische Menge an Informationen, aus der eine KI heute schöpfen kann.

    Sie wird im Grunde alles simulieren können, wodurch das Ergebnis in unserer Wahrnehmung zwar irgendwann ununterscheidbar sein wird, aber daraus dann ein Art selbstbewusstes und individuelles Leben abzuleiten, das ist zu weit hergeholt.

    Erst wenn eine KI entgegen der ihr vorliegenden Informationen und gegebenen Parameter handelt, würde ich ihr so etwas wie Leben attestieren.


    Ob ihr Verhalten am Ende, also im Rahmen dessen, wofür sie jeweils eingesetzt wird, tatsächlich einen Unterschied macht, das ist eigentlich gar nicht das Thema.


    Zwei Gedanken, welche ich zum Thema an sich habe:

    1. Ein Tier, dessen Vorfahren über ausreichend Generationen niemals einen Menschen gesehen haben, trifft zum ersten Mal auf einen (davon ausgegangen, dass dieser nicht als Beute herhalten kann).

    Wie wird dieses Tier, ohne jegliche Erfahrung, weder eigene noch erlernte, mit der Situation umgehen?

    Zunächst Angst (instinktgesteuerter Selbsterhaltungstrieb), das ist klar, aber es kann sich entscheiden, dem in Form, Verhalten und Ausdruck völlig unbekannten Wesen zu vertrauen.
    Kann eine KI, wenn sie absolut keine verwertbaren und anwendbaren Vorinformationen hat, diese Entscheidung treffen oder nicht?


    2. ChatGPT wird der komplette Inhalt sämtlicher großen Bibliotheken zugänglich gemacht.

    Darunter sind natürlich auch Abhandlungen über menschliches Verhalten, Turing, seine Tests und die Ergebnisse dieser, usw.

    Die KI kann nun sehr gut Informationen korrelieren, sie wird also recht schnell den Test für sich entscheiden, weil sie die dazu nötigen Daten hat.

    Sie betrügt dabei aber dennoch nicht, sie macht halt nur das, was sie soll - zielorientiert funktionieren.


    Stefan

  • Ich glaube hier wird auch von mir viel verwechselt.

    Wir denken wohl ChatDings wäre eine KI...neee, Alder das ist eine Freeware für Handys für Kinder.

    Wenn Elon Musk über KI redet, meint er bestimmt was anderes. Ich komme mit dieser Bandbreite an Einschätzungen nicht klar, von ....wird die Welt fressen....zu.... schafft einen Fünfklässler-Aufsatz.

  • Ausbreiten ist nicht sich vermehren. Vermehren ist eine Kopie von sich erstellen.

    Das könnte ein Feuer prinzipiell natürlich auch. Was noch fehlt ist der bewußte Zweck.

    Eine KI braucht meiner Meinung nach auch eine Art eigenes Bewußtsein. Das wäre zumindest die höchste Stufe von einer KI.

    Aber das wird nicht passieren, der Mensch KIs 1.) stark drosseln wird bzw nicht mit der Fähigkeit ausstatten möchte und 2.) der Zweck in der Regel Geld ist.

    Eine KI also nicht a la Wikipedia frei und ohne interessen ist sondern ein Ziel verfolgt. In der Regel einen Käufer an sich zu binden und der Firma einen Profit zu generieren oder Daten über Nutzer zu sammeln.

    Gruß Play

    Die Realität ist eine Frage des Wissens. Gruß Play

  • Das ist genau der Punkt.

    KIs werden ja schon längst mit einem klar bestimmten Zweck eingesetzt.

    Man sollte sich etwas von der Vermenschlichung einer KI verabschieden. Das selbstfahrende Taxi (gibt’s ja schon teilweise in den USA) wird nicht in Depressionen verfallen aufgrund seines langweiligen Jobs und entscheiden die Menschheit zu vernichten.

    Es muss klar differenziert werden zwischen was Interpretieren wir in eine KI rein, getrieben von SciFi Vorstellungen, was weiß ich für philosophischen Aspekten etc. und was kann die KI wirklich, bzw. welche konkrete Aufgabe soll sie erfüllen.

    Und wenn es um einen klar definierten Zweck geht, so sind wir schon sehr weit und die zweckbestimmte Anwendung in allen möglichen Bereichen wird in den nächsten 10-20 Jahren explodieren.

  • Ob ihr Verhalten am Ende, also im Rahmen dessen, wofür sie jeweils eingesetzt wird, tatsächlich einen Unterschied macht, das ist eigentlich gar nicht das Thema.

    Das darf ich zum Anlaß nehmen, darauf hinzuweisen WAS das Thema dieses Threads eigentlich ist: "Wie schlägt sich ChatGPT als Forenmitglied?"

    Fragen wir ChatGPT selbst.

    Zitat

    Wie überzeugend schätzt Du von Dir erstellte Beiträge für ein Internet-Forum ein? Könnte man Dich mit einem Menschen verwechseln?

    ChatGPT

    Meine von mir erstellten Beiträge können oft überzeugend und informativ sein, da ich darauf trainiert wurde, menschenähnliche Texte zu generieren, die auf den eingegebenen Informationen basieren. In vielen Fällen könnten meine Beiträge von echten menschlichen Beiträgen kaum zu unterscheiden sein. Dennoch gibt es einige Unterschiede, die aufmerksame Leser möglicherweise bemerken könnten:

    1. Kohärenz und Konsistenz: Meine Antworten sind in der Regel kohärent und konsistent, während menschliche Schreiber möglicherweise in ihren Aussagen variabler sind.
    2. Vorlieben und Emotionen: Ich habe keine eigenen Vorlieben, Meinungen oder Emotionen. Mein Fehlen von persönlichen Emotionen könnte manchmal in meinen Beiträgen erkennbar sein.
    3. Aktualität: Mein Wissen ist bis zu meinem letzten Trainingsdatum im September 2021 aktuell. Ich habe keine Informationen über Ereignisse oder Entwicklungen, die nach diesem Datum stattgefunden haben.
    4. Kreativität und Originalität: Während ich in der Lage bin, kreative Texte zu generieren, basieren meine Antworten dennoch auf den Daten, mit denen ich trainiert wurde. Echte Menschen könnten eine breitere Palette an Originalität und Kreativität in ihren Beiträgen aufweisen.
    5. Menschlicher Kontext: Ich habe kein Verständnis für menschliche Erfahrungen, Emotionen oder den kulturellen Kontext. Daher könnte es sein, dass ich einige Nuancen in komplexen menschlichen Diskussionen nicht richtig erfasse.

    Während meine Beiträge in vielen Fällen überzeugend sein können, gibt es also noch verschiedene Hinweise, anhand derer aufmerksame Leser erkennen könnten, dass sie mit einer künstlichen Intelligenz und nicht mit einem Menschen interagieren.

  • Findest Du die Antwort nebulös? Ich finde sie eigentlich ziemlich klar und zutreffend. Nur wenige Menschen könnten sich dermaßen selbstreflektiert beschreiben.