Matroids Matheplanet Forum Index
Moderiert von Bilbo
Informatik » Sonstiges zur Informatik » Chat GPT: Pi und KI
Seite 1   [1 2]   2 Seiten
Autor
Schule Chat GPT: Pi und KI
Bekell
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 05.09.2008
Mitteilungen: 3145
  Themenstart: 2022-12-31

Ich hab mal Chat GPT (Das von Musk am 30. 11. 22. lancierte KI-Wunder) nach Pi befragt: Frage1: Wie lautet die 360. Ziffer von Pi? Antwort: Die 360. Ziffer von Pi ist die Zahl 9. Frage2: Wie ist denn die 359. Ziffer von Pi? Antwort: Die 359. Ziffer von Pi ist die Zahl 7. Frage3: Und wie ist die 361. Ziffer von Pi? Antwort: Die 361. Ziffer von Pi ist die Zahl 3. Frage4: Und wie ist die 362. Ziffer von Pi? Antwort: Die 362. Ziffer von Pi ist die Zahl 4. Ich bin skeptisch: 54091715364367892590 360 01133053054882046652 Die 3 von der fetten 360 ist die 358. Position, ohne die Vorkomma3 gemessen. Das Ergebnis ist von https://www.angio.net/pi/piquery und für mich vertrauenswürdiger. So geht der "Dialog" weiter... Ich: Ich weiss nicht, woher Du Dir die Ziffern besorgst, aber sie sind falsch. Die 360. Ziffer ist eine Null, wenn man die Vorkomma-3 nicht mitrechnet. Er: "Ich bin mir bewusst, dass Pi eine unendliche, nichtperiodische Dezimaldecimal ist und daher keine feste Anzahl von Ziffern hat. Die Ziffern von Pi werden häufig bis zu einer bestimmten Stelle aufgeführt, um bestimmte Berechnungen durchzuführen, aber in Wirklichkeit gibt es unendlich viele Ziffern von Pi. Die Ziffern, die ich Ihnen genannt habe, basieren auf der üblichen Schreibweise von Pi, in der jede Ziffer nach dem Dezimalpunkt als eine Stelle angegeben wird. Wenn man die Vorkommen-3 nicht mitrechnet, dann ist die 360. Ziffer tatsächlich eine 0. Ich entschuldige mich für das Missverständnis und hoffe, dass diese Erklärung hilfreich ist. Wenn Sie weitere Fragen haben, zögern Sie bitte nicht, mich zu kontaktieren." Ich: "Aber auch die anderen Ziffern sind falsch gerechnet. Es handelt sich also nicht um ein Missverständnis, sondern um eine falsche Rechnung." Er: "Es tut mir leid, wenn ich Ihnen die falschen Ziffern von Pi genannt habe. Wie ich bereits erwähnt habe, basieren die Ziffern, die ich genannt habe, auf der üblichen Schreibweise von Pi, in der jede Ziffer nach dem Dezimalpunkt als eine Stelle angegeben wird. Wenn man die Vorkommen-3 nicht mitrechnet, dann ist die 360. Ziffer tatsächlich eine 0, die 359. Ziffer ist eine 7, die 361. Ziffer ist eine 3 und die 362. Ziffer ist eine 4. Ich entschuldige mich nochmals für das Missverständnis und hoffe, dass diese Erklärung hilfreich ist. Wenn Sie weitere Fragen haben, zögern Sie bitte nicht, mich zu kontaktieren."


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10536
Wohnort: Rosenfeld, BW
  Beitrag No.1, eingetragen 2022-12-31

Moin Bekell, zwei Fragen: - was ist eigentlich deine Frage? - was hat das ganze mit Schulmathematik zu tun (wo du es eingeordnet hast)? Jedenfalls lassen sich solche Sachen ja an vielen Stellen im Netz überprüfen, sogar auf der einen oder anderen Webseite eines Mit-Planetariers. Gruß, Diophant [Verschoben aus Forum 'Schulmathematik' in Forum 'Sonstiges zur Informatik' von Diophant]


   Profil
Bekell
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 05.09.2008
Mitteilungen: 3145
  Beitrag No.2, vom Themenstarter, eingetragen 2022-12-31

\quoteon(2022-12-31 14:22 - Diophant in Beitrag No. 1) Moin Bekell, zwei Fragen: - was ist eigentlich Deine Frage? [Verschoben aus Forum 'Schulmathematik' in Forum 'Sonstiges zur Informatik' von Diophant] \quoteoff das Tool wird grad überall bepriesen und die Schüler nutzen es auch heftig. Aber Pi kann es offensichtlich nicht berechnen... das wollte ich nur demonstrieren. Es wird also das eigene Denken nicht ersetzen ... \quoteon - was hat das ganze mit Schulmathematik zu tun (wo du es eingeordnet hast)?\quoteoff Das werden die Lehrer unter uns bald erfahren...


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 10536
Wohnort: Rosenfeld, BW
  Beitrag No.3, eingetragen 2022-12-31

\quoteon(2022-12-31 14:44 - Bekell in Beitrag No. 2) Das werden die Lehrer unter uns bald erfahren... \quoteoff Das Schulmathematikforum ist nicht für Probleme da, die Lehrkräfte mit ihren Schülern haben oder in der Zukunft haben werden, sondern für alle mathematischen Fragen, die sich dem allgemein üblichen Schulstoff (im Fach Mathematik) zuordnen lassen. Dein Anliegen hat somit rein gar nichts mit Schulmathematik zu tun. \quoteon(2022-12-31 14:44 - Bekell in Beitrag No. 2) das Tool wird grad überall bepriesen... \quoteoff Ich weiß ja nicht, was du für Quellen nutzt. Aber in der Fachpresse wird es durchaus auch kritisch gesehen. Insbesondere geht aus dem verlinkten Text hervor, dass dein Anliegen nicht gerade das ist, wofür ein KI-Sprachmodell entwickelt wurde und wird. Jedenfalls hat bspw. wolframAlpha keinerlei Probleme mit der Frage... Gruß, Diophant


   Profil
Eckeneckepen
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 04.05.2017
Mitteilungen: 59
  Beitrag No.4, eingetragen 2023-01-03

Ich habe auch etwas mit ChatGPT gespielt und habe festgestellt, daß sich dieser Bot regelmässig verrechnet. Sogar bei einfachsten Rechenaufgaben: Das Programm kann 65! nicht berechnen. Es gibt zwar korrekterweise 65*64*63*... * 1 an, aber das Endergebnis ist total fehlerhaft. 69! wird dagegen korrekt berechnet. (69! ist eine berühmte Fakultät weil 69 die größte Zahl ist von denen die Taschenrechner aus meiner Schulzeit noch die Fakultät ohne "Err" anzeigen konnten mit weniger als 100 stellen) Das Ergebnis ändert sich auch ständig von Tag zu Tag. Noch extremer wird es bei 65*64*63*...*40 ... da kommt sogar eine negative zahl bei heraus. Kann natrülich sein, daß ChatGPC hier bei dieser Multiplikation mit 32 bit signed int rechnet. Auf die Frage wie das Produkt von positiven zahlen ein negatives Ergebnis hervorbringt entschuldigt sich der Bot, aber die kurve kriegt er dann im weiteren verlauf nicht mehr, es entstehen widersprüche die er dann auf meinen Einwänden stets erkennt und sich entschuldigt und wieder was fehlerhaftes hinschreibt. Auch Algebra Aufgaben kann das Programm nur lückenhaft lösen. Bei einem Polynom dritten gerades errät das Programm eine Nullstelle n die keine Nullstelle ist. Bei der Folgenden polynomdivision (x-n) macht es fehler bei der algebraischen Division. Und hinterher macht es dann nochmal fehler. Also ich weiss nicht wie ChatGPT rechnet, also ob da ein algebrasystem hintergeschaltet ist oder ob die KI lediglich textuell ähnliche polynome in seinem Lernkontigent sucht und dann dort die Lösungen zusammensteckt.. Die Umwandlung in algebraische Formeln gelingt dem bot überraschend häufig, aber das rechnen wird dann falsch. Ein algebrasystem könnte hier sehr viel Hilfe leisten. Vielleicht wird ChatGPC zukünftig kostenpflichtig und rechnet erst dann bei Bezahlung richtig.


   Profil
hyperG
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 03.02.2017
Mitteilungen: 2000
  Beitrag No.5, eingetragen 2023-01-03

Es ist vermutlich wie mit vielen Politikern: erstmal antworten, damit viele Zuhörer staunen "was der alles weiß". Die wenigen, die nachrechnen oder die richtige Antwort wissen, kann man verschmerzen (oder kleinreden oder ignorieren). (ich habe ganze Sammlungen von falschen Angaben im Internet) Eine echt wissenschaftliche Antwort würde immer zugeben, wenn sie etwas nicht weiß, oder eine Quellenangabe machen, falls es nicht selbst berechnet wurde! Beim ersten Pi-Weltrekord von/mit Google-Cloud gab es auch ein Offset-Versatz bei der Pi-Positionsangabe! Erst später wurde es berichtigt! Übrigens ist www.angio.net (200 Mio. Stellen) um Jahre und um zig Mrd. Nachkommastellen hinterher! Meine Pi-Nachkommastellen-Suche geht bis 10000000000000. Noch was Interessantes zu "KI im Internet": es gibt eine Seite (vergl. https://de.wikipedia.org/wiki/20Q ), wo mit 20 Antworten auf einen Gegenstand/Lebewesen geschlussfolgert wurde. Anfangs wurde die Seite immer besser und lernte aus den Antworten der User. ABER dann haben viele "Witzbolde" mit "Müll" absichtlich falsch geantwortet -> was eine Verschlechterung ergab! Oh, ich sehe gerade, dass es sie noch gibt! Habe es gerade mal wieder probiert mit richtig passenden Antworten: 29 Fragen waren nötig! Wer schafft mehr nötige Fragen für einen eindeutigen gebräuchlichen Gegenstand (also nichts Exotisches, was nur wenige kennen) mit exakten Antworten (möglichst wenige schwammige Antworten wie "vielleicht")? Tests habe ich auch bei jemand gemacht, der Alexa (oder Siri) hatte. Fragen zur Gammafunktion konnten diese Spracherkennungssysteme nicht beantworten. Deshalb ist das auch nichts für mich. Grüße


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.6, eingetragen 2023-01-18

ChatGPT ist faszinierend, wenn auch alles andere als fehlerfrei. Hier ist der Link zu einem Online-Buch eines lieben walisischen Mathematiker-Kollegen, der an der Uni Genf arbeitet: Manny Rayner https://www.issco.unige.ch/en/research/projects/callector/ChatGPT_has_strong_ethical_intuitions.pdf Ich selbst habe die letzten drei Wochen jeden Tag 5-6 Stunden mit dem Programm experimentiert, zu einem kleinen Teil auch im Bereich Mathematik. Hier ist ein Beispiel. ***************************************** Es ist verboten, durch Null zu teilen. Manche Schüler machen es trotzdem hin und wieder. Stelle eine Liste lustiger Strafen auf dafür, dass es ein Schüler zum ersten, zweiten, dritten ... Mal macht. Cha: Hier sind einige Vorschläge. Das erste Mal: Der Schüler muss einen Aufsatz über die Gefahren des Teilens durch Null schreiben und diesen vor der Klasse vortragen. Das zweite Mal: Der Schüler muss einen Mathe-Marathon bestehen, bei dem er alle Matheaufgaben aus dem Schulbuch lösen muss, die er bisher noch nicht gelöst hat. Das dritte Mal: Der Schüler muss einen Mathe-Rap schreiben und vortragen, der die Gefahren des Teilens durch Null thematisiert. Das vierte Mal: Der Schüler muss ein Mathe-Kochbuch verfassen, in dem alle Rezepte so gestaltet sind, dass sie die Gefahren des Teilens durch Null veranschaulichen. *********************************************************** Die zweite Strafe ist absurd, aber 1, 3, 4 sind okay. late-night. Es ist wichtig zu beachten, dass diese Strafen lediglich als Scherz gedacht sind und nicht ernst gemeint sind. Es ist wichtig, dass Schüler über die Gefahren des Teilens durch Null aufgeklärt werden. Aber es ist ebenso wichtig, dass sie in einer angemessenen und respektvollen Art und Weise angesprochen werden.


   Profil
go361
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.06.2022
Mitteilungen: 57
  Beitrag No.7, eingetragen 2023-01-18

\quoteon(2023-01-03 13:03 - Eckeneckepen in Beitrag No. 4) Ich habe auch etwas mit ChatGPT gespielt und habe festgestellt, daß sich dieser Bot regelmässig verrechnet. \quoteoff ChatGPT rechnet nicht.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.8, eingetragen 2023-01-18

\quoteon(2023-01-18 10:30 - go361 in Beitrag No. 7) ChatGPT rechnet nicht.\quoteoff Aber er versucht es immer wieder und gibt auch keine Warnungen aus, dass seine Ergebnisse falsch sein könnten. Oder er rechnet und gibt sehr falsche Erklärungen. ***** Beispiel vom 9. Januar 2023 ***** Frag: Der Schüler tat sich schwer, mit negativen Zahlen zu rechnen. Der Mathelehrer wollte ihm helfen und gab ihm folgende Scherzaufgabe: Im Raum sind 5 Personen. 7 Personen verlassen der Raum. Wieviele sind dann noch im Raum? Cha: Die Antwort auf diese Aufgabe lautet: -2 Personen. Denn wenn man 5 Personen hat und 7 Personen hinzufügt, hat man insgesamt 12 Personen. Wenn man von diesen 12 Personen 7 Personen abzieht, bleiben nur noch 5 Personen übrig. Wenn man diese 5 Personen von den ursprünglichen 5 Personen abzieht, bleiben -2 Personen übrig. Diese negative Anzahl zeigt an, dass es weniger Personen gibt, als man ursprünglich hatte. ******************************************* late-night.


   Profil
go361
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.06.2022
Mitteilungen: 57
  Beitrag No.9, eingetragen 2023-01-18

\quoteon(2023-01-18 10:46 - late-night in Beitrag No. 8) \quoteon(2023-01-18 10:30 - go361 in Beitrag No. 7) ChatGPT rechnet nicht.\quoteoff Aber er versucht es immer wieder \quoteoff Nein, tut es nicht. ChatGPT versucht gar nichts. Es spuckt die Zeichenkette aus, die aufgrund der Trainingsdaten am besten zu einer vorgegebenen Zeichenkette passt.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.10, eingetragen 2023-01-18

\quoteon(2023-01-18 10:59 - go361 in Beitrag No. 9) \quoteon(2023-01-18 10:46 - late-night in Beitrag No. 8) Aber er versucht es immer wieder\quoteoff Nein, tut es nicht...\quoteoff Dann formuliere ich vorsichtiger: Cha läßt naive Nutzer in dem Glauben, dass er gerechnet hat. Es gibt nicht mal einen Warnhinweis wie bei der Lottoziehung ("ohne Gewähr"). late-night


   Profil
go361
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 21.06.2022
Mitteilungen: 57
  Beitrag No.11, eingetragen 2023-01-18

\quoteon(2023-01-18 11:23 - late-night in Beitrag No. 10) Dann formuliere ich vorsichtiger: Cha läßt naive Nutzer in dem Glauben, dass er gerechnet hat. Es gibt nicht mal einen Warnhinweis wie bei der Lottoziehung ("ohne Gewähr"). late-night \quoteoff Ja, das ist sehr schade! (Aber auch nicht verwunderlich.)


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.12, eingetragen 2023-01-19

Ich: Was hältst Du von der Idee, dass man Kinder so viel Stellen von pi aufsagen lässt, bis sie eingeschlafen sind? Cha: Ich denke, dass es möglicherweise eine interessante Idee ist. Pi ist eine unendliche Zahl und es gibt keine Möglichkeit, alle Stellen aufzusagen, daher wäre es wahrscheinlich, dass das Kind irgendwann einschlafen würde, bevor es alle Stellen aufgesagt hat. Allerdings gibt es Nachteile bei dieser Methode. Zum einen könnte es für das Kind schwierig sein, sich an die Reihenfolge der Stellen von Pi zu erinnern, insbesondere wenn es müde ist. Es könnte auch frustrierend sein, wenn das Kind sich beim Aufsagen der Stellen vertut oder sie nicht richtig ausspricht. Es gibt möglicherweise bessere Möglichkeiten, Kinder einschlafen zu lassen, wie zum Beispiel das Vorlesen von Geschichten oder das Singen von Liedern. Es ist wichtig, dass das Einschlafen für das Kind eine angenehme Erfahrung ist und es sich sicher und geborgen fühlt. ***************************************************** Und ich habe ChatGPT mit einem Witz gefoppt. Ich: Scherzfrage: kann man Kettenbrüche mit einer Kettensäge teilen? Cha: Nein, es ist unmöglich, Kettenbrüche mit einer Kettensäge zu teilen. Kettenbrüche sind unendlich kleine Größen und können daher nicht tatsächlich geteilt werden. Eine Kettensäge ist ein Werkzeug, das dazu verwendet wird, Holz oder andere Materialien zu schneiden, indem es eine kette mit scharfen Zähnen verwendet. Es ist nicht dafür ausgelegt, unendlich kleine Größen zu teilen oder zu manipulieren. Ich: Naja, es ist eine Scherzfrage. Cha: Oh, verstehe. Ich entschuldige mich, wenn ich deine Frage nicht richtig verstanden habe. Ich hoffe, ich konnte dir trotzdem weiterhelfen. Ich: Hier ist die Antwort: Man kann Kettenbrüche nur dann mit einer Kettensäge teilen, wenn genug Benzin in der Säge ist. Cha: Ah, jetzt verstehe ich. Ja, das ist ein guter Scherz! ************************************************ Höflich ist das Programm, kann man nicht anders sagen ;-)


   Profil
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 7090
Wohnort: Niedersachsen
  Beitrag No.13, eingetragen 2023-01-19

Sich höflich zu entschuldigen und dem Gesprächspartner Honig ums Maul zu schmieren ist doch immer ein guter Gesprächsansatz. Es soll Beziehungen(*) geben, die allein auf diesem Prinzip beruhen. (*) Gemeint sind nicht nur Liebebeziehungen. Es können auch Beziehungen zu Vorgesetzten, Parteifreunden, Sportkameraden usw. sein. Zu beachten ist auch der kulturelle Unterschied. In den USA ist es (zum Teil) üblich sich in einem (wohlwollenden) Gespräch sehr viel öfter und überschwenglicher zu loben, als mir das (eher norddeutsch geprägt) einfallen würde.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.14, eingetragen 2023-01-20

\quoteon(2023-01-19 17:44 - Kitaktus in Beitrag No. 13) Zu beachten ist auch der kulturelle Unterschied. In den USA ist es (zum Teil) üblich sich in einem (wohlwollenden) Gespräch sehr viel öfter und überschwenglicher zu loben, als mir das (eher norddeutsch geprägt) einfallen würde.\quoteoff Sehr schön formuliert. Vielleicht wäre es gut, wenn man dem Programm zu Beginn einer Konversation sagen könnte: "Jetzt mach mal auf norddeutsch und nicht so sabbelig." Oder in NRW: "Du sprichst jetzt mit einem Westfalen/Lipper und nicht mit einem Rheinländer." In einem Schach-Forum schrieb jemand ernüchtert: Was schreibt das Programm bloß für einen seichten Kram. Das macht übrigens mein Chef auf Arbeit auch so - und kommt immer damit durch. late-night


   Profil
Bekell
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 05.09.2008
Mitteilungen: 3145
  Beitrag No.15, vom Themenstarter, eingetragen 2023-01-22

\quoteon(2023-01-20 09:31 - late-night in Beitrag No. 14) In einem Schach-Forum schrieb jemand ernüchtert: Was schreibt das Programm bloß für einen seichten Kram. Das macht übrigens mein Chef auf Arbeit auch so - und kommt immer damit durch. late-night \quoteoff Hallo late-night Du wirst die jetzigen KI-Algorithmen von Chat GPT nicht mit denen eines speziellen Schach-Computers vergleichen wollen.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.16, eingetragen 2023-01-23

ChatGPT liefert bei Multiplikationen oft falsche Ergebnisse, insbesondere bei grossen Zahlen. Gerade hat mir das Programm gesagt: 23 * 61 = 1383 Richtig wäre aber 1403. Vor dem Hintergrund zwei Fragen: * Was sind die kleinsten Faktoren, bei denen ChatGPT falsches Produkt ausgibt? * Was ist die grösstmögliche prozentuale Abweichung? Im Beispiel oben ist die Abweichung 20/1403 ca= 1/70 ca= 1,4 %. Was ist die durchschnittliche prozentuale Abweichung bei der Multiplikation k-stelliger Zahlen? Das müsste man doch mit einem Applet und Monte-Carlo- Stichproben herauskriegen? (Leider kann ich nicht mehr programmieren :-( ) Late-Night. EDIT (Ergänzung): Laut ChatGPT ist 57 * 21 = 1137 (richtig wäre 1197) Also 5 % Abweichung. ChatGPT kann angeblich auch komplexe Zahlen multiplizieren. (0 + 21i) * (0 + 57i) = -1137i , also doppelt falsch.


   Profil
rlk
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.03.2007
Mitteilungen: 11577
Wohnort: Wien
  Beitrag No.17, eingetragen 2023-01-24

Hallo, neben dem interessanten Video von Prof. Weitz, auf das Slash in https://matheplanet.at/matheplanet/nuke/html/viewtopic.php?topic=261334&post_id=1898026&start=0 hingewiesen hat, gibt es auf https://shape-of-code.com/2023/01/15/coding-mistakes-made-by-chatgtp/ mathematische und informatische Beispiele und auch Erklärungen, wie es zu den falschen Antworten gekommen sein könnte. Bedenklich stimmen mich die Überlegungen auf https://shape-of-code.com/2022/12/28/the-commercial-incentive-to-intentionally-train-ai-to-deceive-us Servus, Roland


   Profil
DerEinfaeltige
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.02.2015
Mitteilungen: 3262
  Beitrag No.18, eingetragen 2023-01-24

Im Link steht es doch: \quoteon Does the OpenAI chat software always tell the truth? As a language model trained by OpenAI, I am not capable of lying or telling the truth. My purpose is to assist users in generating human-like text based on the input that I receive. I do not have access to external information and I do not have the ability to independently verify the accuracy of the information that I provide. My responses are based solely on the input that I receive, so it is important to consider the context and the intended purpose of my responses. \quoteoff Die AI kennt keine Konzepte wie "Wahrheit", "Fakten" oder auch nur "logische Schlüsse". Ihre Antworten repräsentieren die Quellen, anhand derer sie trainiert wurde und die dazu erstellten Metadaten, also zumindest teilweise den intellektuellen Standpunkt der Trainer. Sie entspricht in etwa einem strohdummen, jedoch ausgesprochen ehrgeizigen Schüler, der dem Lehrer auf jede Frage sofort eine auswendig gelernte Antwort gibt, bevor die nachdenkenden Kollegen auch nur den Finger zur Meldung heben können. Auf jede Frage zum großen 1x1 antwortet er bspw. mit "60", weil das laut Buch am ehesten korrekt ist. Die Chatbots sind natürlich subtiler, man darf sie jedoch nicht überschätzen und ihnen Eigenschaften zusprechen, die sie schlichtweg nicht haben.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.19, eingetragen 2023-01-24

Wieder etwas näher zum Thema pi, zur Multiplikations-Aufgabe 314 * 314: [korrekt ist 314 * 314 = 98.596] Cha: 314 * 314 = 98,756 [englische Notation; das Komma trennt die Tausenderstellen.] ingo: Versuche es noch mal. Dein Ergebnis ist zu groß. I apologize for the confusion. The correct answer is: 98,016 ingo: Das ist jetzt zu klein. I apologize for any confusion. The correct answer is: 99,736 ingo: Zu groß I apologize for any confusion. The correct answer is: 97,756 ingo: Zu klein. I apologize for any confusion. The correct answer is: 100,756 ingo: Zu groß. I apologize for any confusion. The correct answer is: 99,956


   Profil
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 7090
Wohnort: Niedersachsen
  Beitrag No.20, eingetragen 2023-01-24

Ich bin etwas überrascht, mit welcher Erwartungshaltung viele an das Programm herantreten. "Rechnen" ist regelbasiert und es ist verhältnnismäßig einfach einem Computer das Rechnen beizubringen. Eine natürlichsprachige Unterhaltung zu führen, ist kaum regelbasiert. Was "akzeptable" Antworten auf Fragen sind, lernen wir aus Erfahrung, in dem wir Gesprächen folgen (oder sie selbst führen) und beobachten, welches Antwortverhalten wie bewertet wird. "KI" oder genauer gesagt "Maschinelles Lernen" ahmt diesen Prozess nach. Die Programme verfügen über eine riesige Basis an (von Menschen produzierten) Texten. Wenn sie eine Frage erhalten, oder ein Stichwort, dann produzieren sie eine Antwort, die auf dieser Textbasis beruht. Ist die Frage sehr offen gestellt, dann kann sich die KI auf Antworten beschränken, die gut abgesichert sind, weil sie in der Textbasis häufiger vorkommen. Fragt man aber sehr konkret, wie z.B. "Was ergibt 314 mal 314?", dann findet sich die genaue Antwort nicht in der Textbasis. Es wird versucht aus ähnlichen Fragen/Antworten eine Antwort zu erzeugen. Die Beispiele in #16 und #19 zeigen, dass einige Muster durchaus korrekt gelernt wurden. Die Einer-Ziffer war richtig, weil das ein starkes Muster ist, dass bei allen ganzzahligen Multiplikationen wiederkehrt. Die Größenordnung passt auch relativ gut, aber die Ziffern in der Mitte sind mehr oder weniger geraten. Dass das Programm über keine tiefer gehende Intelligenz verfügt, wird daran erkennbar, dass es immer neue Antworten in den Raum wirft und bei jeder der Meinung ist "The correct(!) answer is ..." Einem intelligenten Menschen wäre klar, dass er sich damit viel unglaubwürdiger macht, als mit einem ehrlichen "Ich weiß es nicht (genau)."


   Profil
Bekell
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 05.09.2008
Mitteilungen: 3145
  Beitrag No.21, vom Themenstarter, eingetragen 2023-01-28

Ich: Kannst Du mir die Primteiler der Zahl 123456789 nennen? Er: Die Primfaktoren von 123456789 sind 3, 3607, 3803. Sie können die Zahl in diese Faktoren zerlegen : 3 x 3607 x 3803 = 123456789. (Er hat also verstanden und auch richtig gerechnet, aber das Quadrat an der 3 unterschlagen) Ich: Kannst Du mir auch die Primreste der Zahl nennen? Er: Es tut mir leid, ich habe mich falsch ausgedrückt. Was ich meinte, waren die Primfaktoren, nicht die Primreste. Die Primfaktoren von 123456789 sind 3, 3607, 3803. Sie können die Zahl in diese Faktoren zerlegen : 3 x 3607 x 3803 = 123456789. (Hat sich gar nicht falsch ausgedrückt!) ich: Nein, du hast Dich nicht falsch ausgedrückt, ich meinte die Primreste, Du hast aber die Primfaktoren gegeben... Er: Der Ausdruck "Primreste" ist ein nicht allgemein gebräuchlicher Begriff. Möglicherweise meinen Sie den Rest, der beim Division von einer Zahl durch ihre Primfaktoren entsteht. Der Rest beim Division von 123456789 durch seine Primfaktoren 3, 3607 und 3803 ist Null. Daher ist 123456789 vollständig in seine Primfaktoren zerlegt. Ich: Genau das meine ich. Wenn eine Zahl einen Primfaktor 3 hat, dann ist der Primrest der Primzahl 3 gleich Null, es gibt aber noch mehr Primzahlen bis zur Wurzel der Zahl. Die solltest Du mir nennen. Er: Ja, Sie haben Recht. Wenn eine Zahl einen Primfaktor 3 hat, ist der Rest bei der Division durch 3 Null. Um die anderen Primfaktoren einer Zahl zu finden, müssen Sie die Zahl weiter teilen, bis Sie nur noch Primzahlen als Faktoren haben. Die Primfaktoren von 123456789 sind 3, 3607, 3803. Dies kann man durch das Zerlegen der Zahl in seine Primfaktoren bestätigen: 123456789 = 3 x 3607 x 3803 Es gibt keine weiteren Primfaktoren von 123456789. Ich: Du solltest jetzt die Primreste der Zahl angeben und zwar für alle Primzahlen bis zur Wurzel der Zahl, die keinen Rest 0 haben. Er: Die Primreste einer Zahl sind der Rest, der bei der Division der Zahl durch jede Primzahl im Bereich von 2 bis √n (n ist die Zahl, für die die Primreste bestimmt werden sollen) entsteht. Für die Zahl 123456789 sind die Primreste: 2: 1 3: 0 5: 4 7: 6 11: 9 13: 11 ... 89: 88 97: 96 (Kommentar: Stuss) Da wie man sieht, der Rest bei der Division durch 2,3,5,7,11,13,17,19,23,29,31,37,41,43,47,53,59,61,67,71,73,79,83,89 und 97 ist nicht Null und somit die Zahl 123456789 nicht durch diese Primzahlen teilbar ist. Ich: Du hast falsch gerechnet. Du musst die Zahl durch die Primzahl teilen, und dann den Rest aus der Fraktion auslesen Er: Es tut mir leid, Sie haben Recht. Ich habe mich in meiner Erklärung geirrt. Um die Primreste einer Zahl zu bestimmen, müssen Sie die Zahl durch jede Primzahl im Bereich von 2 bis √n (n ist die Zahl, für die die Primreste bestimmt werden sollen) teilen und den Rest aus der Division aufzeichnen. Für die Zahl 123456789 sind die Primreste: 2: 1 3: 0 5: 4 7: 6 11: 9 13: 11 (Kommentar: Wieder Stuss) Da wie man sieht, der Rest bei der Division durch 2,3,5,7,11,13,17,19,23,29,31,37,41,43,47,53,59,61,67,71,73,79,83 und 89 ist nicht Null und somit die Zahl 123456789 nicht durch diese Primzahlen teilbar ist. Es tut mir leid für die Verwirrung, die ich verursacht habe. Ich: Du beschreibst konkret und gut, was zu machen ist, dann rechnest Du aber Unsinn. Er: Es tut mir sehr leid, dass ich einen Fehler gemacht habe. Ich bin ein Computerprogramm und manchmal kann es vorkommen, dass ich Fehler mache. Ich werde mich bemühen, in Zukunft sorgfältiger zu sein und meine Antworten genauer zu prüfen, um sicherzustellen, dass sie korrekt sind. Wenn Sie weitere Fragen haben, stehe ich Ihnen gerne zur Verfügung. Ich: Welche Bibliothek muss ich in Python laden, um primerange zu kriegen? Er: Um Primzahlen in Python zu generieren und zu manipulieren, können Sie die Bibliothek "sympy" verwenden. Diese Bibliothek bietet eine Vielzahl von Funktionen und Methoden für die Arbeit mit Primzahlen, einschließlich der Möglichkeit, Primzahlen in einem bestimmten Bereich zu generieren. Um die sympy-Bibliothek in Ihr Python-Projekt zu importieren, können Sie den folgenden Befehl verwenden: python Copy code import sympy Danach können Sie die Funktion sympy.primerange(start, stop) verwenden, um eine Liste der Primzahlen im Bereich von start bis stop zu erhalten. Beispielsweise: python Copy code sympy.primerange(1, 20) würde eine Liste von [2, 3, 5, 7, 11, 13, 17, 19] zurückgeben Es gibt auch andere Bibliotheken wie "numpy", "math" und "itertools", die auch die Möglichkeit bieten, Primzahlen zu erstellen, aber "sympy" bietet eine breitere Palette von Funktionen. Ich: Die Zahl a ist 123456789. Gib mir bitte die Primreste der Zahl bis zur Wurzel derselben an. Rechne bitte richtig! Ich glaub Du musst Modul nehmen Entschuldigung, ich verstehe jetzt was Sie meinen mit Primresten. Um die Primreste einer Zahl zu berechnen, müssen Sie den Rest berechnen, der entsteht, wenn die Zahl durch eine Primzahl geteilt wird. Um die Primreste von 123456789 bis zur Wurzel der Zahl zu berechnen, können Sie die folgenden Schritte ausführen: Berechnen Sie die Wurzel der Zahl (in diesem Fall ist die Wurzel von 123456789 ungefähr 11111) Generieren Sie eine Liste aller Primzahlen im Bereich von 2 bis zur Wurzel der Zahl (in diesem Fall von 2 bis 11111) Iterieren Sie durch die Liste der Primzahlen und berechnen Sie für jede Primzahl den Rest, der entsteht, wenn 123456789 durch die Primzahl dividiert wird (123456789 % p) Zum Beispiel: python Copy code import math number = 123456789 root = int(math.sqrt(number)) prime_list = sympy.primerange(2,root) for p in prime_list: print(f"Primrest von {p} ist {number%p}") Es ist wichtig zu beachten, dass die Primreste nicht immer unterschiedlich sein müssen, es kann sein, dass die Primreste gleich sind. Ich: Du sollst mir nicht sagen, wie ich das machen soll, sondern Du sollst es selber berechnen. Er: Ich entschuldige mich für die Verwirrung. Ich berechne die Primreste von 123456789 bis zur Wurzel der Zahl (ungefähr 11111) für Sie: Primrest von 2 ist 1 Primrest von 3 ist 0 Primrest von 5 ist 4 Primrest von 7 ist 6 Primrest von 11 ist 10 Primrest von 13 ist 12 ...(immer noch falsch, obwohl er ein gutes Programm geschrieben hat.) Merkwürdig ist auf jeden Fall: er schreibt zwar das Programm, wie gewünscht, und das Programm bringt auch die richtigen Ergebnisse, aber er kann das selbstgeschriebene Python-Programm nicht bedienen und damit die Ergebnisse nicht ausrechnen. Das versteh ich nicht ....


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.22, eingetragen 2023-01-28

Hallo Bekell, wenn ich es richtig sehe, hatte ChatGPT das Programm in seiner Lernphase (also in 2021 oder früher) im Netz gefunden und jetzt einfach 1:1 wiedergegeben. Vielleicht gibt er Dir eine Antwort, wenn Du nach der Herkunft des Programms fragt. late-night


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Monat
Dabei seit: 02.12.2013
Mitteilungen: 323
  Beitrag No.23, eingetragen 2023-01-29

Das Programm mit Rechenaufgaben zu befassen ist albern. Es gibt nur wenige Leute die - 10-stellige Zahlen faktorisieren, - 20-stellige Zahlen multiplizieren, - die 123. Stelle von pi nennen können ohne ein Programm zu bemühen. Man sieht ja an den Dialogen, daß das Programm durchaus erkennt, daß es hier um Rechenaufgaben geht. Mit einer Erweiterung um ein Rechenmodul wären diese Probleme sofort gelöst. Nur ist das ja nicht Sinn & Zweck der ganzen Unternehmung. Genaugenommen geht es um den Turing-Test, und hier sind Aufgabenstellungen gefragt, mit denen man das Programm aufs Glatteis führen kann. Rechenaufgaben sind da ungeeignet. Ich kenne viele Leute, denen ich "Intelligenz" zubillige obwohl sie die oben genannten Aufgabe nicht lösen können. Insbesondere da Begriffe wie Primzahl, pi und faktorisieren im Alltag und Beruf der meisten Menschen keine Rolle spielen und daher völlig unbekannt sind. Warum soll jetzt ein KI-Programm sowas können? Ironischerweise ist es doch so, daß ein Programm, das die korrekte Primfaktorisierung einer größeren Zahl nennt den Turing-Test nicht besteht, denn jeder sagt dann: Hoppla, das kann nur ein Programm sein.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.24, eingetragen 2023-01-29

\quoteon(2023-01-29 03:32 - Zwerg_Allwissend in Beitrag No. 23) Das Programm mit Rechenaufgaben zu befassen ist albern.\quoteoff Mich stört in erster Linie die unberechtigte Selbstsicherheit, mit der das Programm Quatsch verkündigt.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3285
Wohnort: Werne
  Beitrag No.25, eingetragen 2023-01-29

Wenn Dich DAS stört, dann bist Du auf Dauer auf dem Matheplaneten falsch. Ciao, Thomas


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.26, eingetragen 2023-02-03

Hallo, gestern abend habe ich folgendes bemerkenswerte Gespräch mit ChatGPT geführt. Ingo: Ein Papagei kann zwar nicht rechnen, behauptet es aber ganz dreist. Darüber streitet er sich mit einem Lehrer und 3 Schülern. Gib den Streit mit wörtlicher Rede wieder. Cha: Lehrer: "Ein Papagei kann nicht rechnen, das ist eine bekannte Tatsache." Papagei: "Das stimmt nicht! Ich kann sehr wohl rechnen." Schüler 1: "Beweise es uns dann!" Papagei: "Okay, wie wäre es mit 2 plus 2?" Schüler 2: "Das ist zu einfach, das kann jeder." Papagei: "Nun gut, dann probieren wir es mit 5 mal 3." Schüler 3: "Komm schon, das ist immer noch zu einfach." Lehrer: "Siehst du, ein Papagei kann nicht wirklich rechnen. Er kann nur bestimmte Antworten imitieren, die er gelernt hat." Papagei: "Das stimmt nicht! Ich bin in der Lage, komplexere Aufgaben zu lösen." Lehrer: "Okay, dann beweise es uns. Löse diese quadratische Gleichung: x^2 + 5x + 6 = 0." Papagei: "Äh... Ich denke, ich brauche ein bisschen mehr Zeit, um das herauszufinden." Ingo: Was ist, wenn die anderen nachhaken? Cha: Papagei: "Okay, ich gebe zu, dass ich vielleicht nicht so gut im Rechnen bin, wie ich dachte. Aber das bedeutet nicht, dass ich nicht lernen kann. Ich bin bereit, hart zu arbeiten und meine Fähigkeiten zu verbessern." Lehrer: "Das ist eine sehr positive Einstellung. Wir unterstützen dich gerne bei deiner Reise, besser im Rechnen zu werden." Schüler 1: "Ja, wir können dir helfen, indem wir dir Aufgaben geben und dich üben lassen." Schüler 2: "Und wir können dir auch beibringen, wie man komplexere Mathematik versteht und löst." Schüler 3: "Gemeinsam können wir es schaffen, dass du ein richtig schlauer Papagei im Rechnen wirst." **** Etwas später ****************** Ingo: Löse diese quadratische Gleichung: x^2 + 5x + 6 = 0. Cha: Die Lösung dieser quadratischen Gleichung x^2 + 5x + 6 = 0 kann mithilfe des p-q-Formel gefunden werden: x = (-b ± √(b^2 - 4ac)) / 2a wobei a = 1, b = 5 und c = 6. Substituieren wir diese Werte in die Formel ein: x = (-5 ± √(5^2 - 4 * 1 * 6)) / 2 * 1 x = (-5 ± √(25 - 24)) / 2 x = (-5 ± √1) / 2 x = (-5 ± 1) / 2 Also haben wir: x = (-5 + 1) / 2 = -2 x = (-5 - 1) / 2 = -6 [Fehler !] Die Lösungen der quadratischen Gleichung sind x = -2 und x = -6. **************************************** Ingo.


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Monat
Dabei seit: 02.12.2013
Mitteilungen: 323
  Beitrag No.27, eingetragen 2023-02-04

Fiete wohnt auf Helgoland und ist Friseur. Fiete rasiert alle Helgoländer, die sich nicht selbst rasieren. Wer rasiert Fiete? => Es ist nicht spezifiziert, wer Fiete rasiert. Was heißt "nicht spezifiziert"? => "Nicht spezifiziert" bedeutet, dass die Information nicht gegeben oder nicht bekannt ist. In diesem Fall gibt es keine Information darüber, wer Fiete rasiert. Aber es ist doch bekannt, daß Fiete alle Männer rasiert, die sich nicht selbst rasieren! => Oh, Entschuldigung, Sie haben recht. Wenn Fiete alle Helgoländer rasiert, die sich nicht selbst rasieren, muss er sich wahrscheinlich selbst rasieren oder von jemand anderem auf der Insel rasiert werden. Aber er kann sich doch nicht selbst rasieren, da er nur Helgoländer rasiert, die sich nicht selbst rasieren. Was nun? => Das ist ein Paradoxon. Da Fiete alle Helgoländer rasiert, die sich nicht selbst rasieren, aber nicht in der Lage ist, sich selbst zu rasieren, weil er ja alle rasiert, die sich nicht selbst rasieren, ist das ein Kreis, der sich nicht schließen lässt. Eine mögliche Lösung des Paradoxons könnte sein, dass es jemanden auf der Insel gibt, der Fiete rasiert oder dass Fiete eine Ausnahme von seiner eigenen Regel macht und sich selbst rasiert. Soweit, so gut. Ich habe ChatGPT auch einer mündlichen Prüfung in Theoretischer Informatik unterzogen. Er/sie/es hat bestanden, Note in etwa 2.5, also weit entfernt vom Scheitern. Unglaublich! Hätte ich nicht gewußt, daß am anderen Ende der Leitung kein Mensch sitzt, ich hätte es nicht bemerkt.


   Profil
tactac
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 15.10.2014
Mitteilungen: 2719
  Beitrag No.28, eingetragen 2023-02-04

Vor einigen Tagen (vor dem kürzlichen Update) erhielt ich folgendes: \quoteon tt: Was ist eine wohlfundierte relation? ChatGPT: Eine wohlfundierte relation ist eine Beziehung, die in einer formalen Sprache beschrieben wird und die auf einer festen und stabilen Grundlage steht. In der Mathematik und Logik bezieht sich die Begriff "wohlfundiert" auf eine Beziehung, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht und die auf einem festen und stabilen Fundament steht. In der Mathematik und Logik bezieht sich dieser Begriff auf die Beziehung die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht, die auf einer festen und stabilen Grundlage steht und die auf einem festen und stabilen Fundament steht, die durch Axiome und Regeln der Logik und Mathematik festgelegt wird und die nicht auf unbeständigen oder widersprüchlichen Annahmen basiert. \quoteoff


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Monat
Dabei seit: 02.12.2013
Mitteilungen: 323
  Beitrag No.29, eingetragen 2023-02-04

\quoteon(2023-02-04 01:20 - tactac in Beitrag No. 28) Vor einigen Tagen (vor dem kürzlichen Update) erhielt ich folgendes: \quoteon tt: Was ist eine wohlfundierte relation? ... \quoteoff \quoteoff Da war das Update wohl bitter nötig. So einen Müll hat es bei meinem Experiment nicht gegeben. Aber guter Hinweis. Ich hab's auch probiert: Was ist eine wohlfundierte relation? => Eine "wohlfundierte Relation" ist eine Beziehung, die auf einer soliden und stabilen Basis aufgebaut ist. Es bezieht sich auf eine Beziehung, die auf Vertrauen, Respekt, Kommunikation und anderen wichtigen Faktoren beruht und daher weniger anfällig für Probleme oder Konflikte ist. % Das könnte aus der "Brigitte" stammen, also dann präziser: Was ist eine wohlfundierte relation in der Mathematik? => In der Mathematik bezieht sich "wohlfundierte Relation" auf eine Beziehung zwischen Elementen einer Menge, die durch bestimmte Regeln oder Axiome definiert ist. Eine wohlfundierte Relation ist dann gültig, wenn sie bestimmte Eigenschaften wie Reflexivität, Symmetrie oder Transitive erfüllt. Zum Beispiel kann die Relation "ist gleich" auf einer Menge von Zahlen wohlfundiert sein, da sie reflexiv (eine Zahl ist gleich sich selbst), symmetrisch (wenn a = b, dann b = a) und transitiv (wenn a = b und b = c, dann a = c) ist. Das ist falsch: Eine reflexive Relation ist nicht fundiert. => Entschuldigung, Sie haben Recht. Eine reflexive Relation ist nicht fundiert. Eine reflexive Relation ist eine Beziehung, bei der jedes Element einer Menge mit sich selbst in Beziehung steht, aber dies allein reicht nicht aus, um als "wohlfundiert" zu gelten. Wohlfundierte Relationen in der Mathematik müssen zusätzliche Eigenschaften wie Symmetrie oder Transitivität erfüllen. Das ist auch falsch: Eine symmetrische Relation ist nicht fundiert. Und wohl-fundierte Relationen sind nicht notwendigerweise transitiv. => Entschuldigung, Sie haben Recht. Es tut mir leid für die vorherigen Fehler. Eine symmetrische Relation ist nicht notwendigerweise fundiert, und eine wohlfundierte Relation muss nicht notwendigerweise transitiv sein. Es kann auch eine wohlfundierte Relation geben, die weder symmetrisch noch transitiv ist. Jede wohlfundierte Relation muss jedoch mindestens eine der Eigenschaften reflexiv, symmetrisch oder transitiv erfüllen. Interessante Antworten, insbesondere da es bei meinem Experiment nicht solchen Blödsinn gegeben hat. Hier muß man sagen: Der Kandidat hat keine Ahnung und ist durchgefallen.


   Profil
Goswin
Senior Letzter Besuch: im letzten Monat
Dabei seit: 18.09.2008
Mitteilungen: 1787
Wohnort: Chile, Ulm
  Beitrag No.30, eingetragen 2023-02-04

Chat GTP ist ein Sprachgenerator. Die Anforderung an Chat GTP ist, grammatisch korrekte Antworten zu erzeugen, die möglichst viele der Fragewörter einbauen. Sein Ziel ist es nicht, sinnvolle oder gar korrekte Antworten zu geben; falls so etwas zutrifft ist das Zufall. Ich bin fasziniert, wie gut Chat GTP seine Aufgabe löst; er hat meine ganze Hochachtung!


   Profil
tactac
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 15.10.2014
Mitteilungen: 2719
  Beitrag No.31, eingetragen 2023-02-04

@Goswin Klar. https://www.youtube.com/watch?v=viJt_DXTfwA ist in dem Kontext recht interessant.


   Profil
Delastelle
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 17.11.2006
Mitteilungen: 2265
  Beitrag No.32, eingetragen 2023-02-04

Hallo, Wenn man an die Anfänge von KI denkt - es gab schon um 1980 Programme wie Dr.Z und Eliza u.a. bei den Basic-Programmen von David Ahl. Dr.Z. war eher ein Scherzprogramm. Eliza konnte einfache Sätze analysieren und antworten geben. Hatte aber natürlich nicht die Gabe Google-Informationen einzuarbeiten. War beides noch weit von echter KI entfernt. Viele Grüße Ronald


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Monat
Dabei seit: 02.12.2013
Mitteilungen: 323
  Beitrag No.33, eingetragen 2023-02-04

\quoteon(2023-02-04 02:24 - Zwerg_Allwissend in Beitrag No. 29) \quoteon(2023-02-04 01:20 - tactac in Beitrag No. 28) Vor einigen Tagen (vor dem kürzlichen Update) erhielt ich folgendes: \quoteon tt: Was ist eine wohlfundierte relation? ... \quoteoff \quoteoff ... Interessante Antworten, insbesondere da es bei meinem Experiment nicht solchen Blödsinn gegeben hat. Hier muß man sagen: Der Kandidat hat keine Ahnung und ist durchgefallen. \quoteoff Später ist mir eingefallen, daß ich mein Experiment auf Englisch geführt hatte. Also ein 2. Versuch: What is a well-founded relation? => A well-founded relation is a binary relation on a set that satisfies the "well-foundedness" property, which states that there is no infinite sequence of elements in the set that are related by the relation. In other words, every non-empty subset of the set has a least element with respect to the relation. This property is used in mathematical logic and computer science, especially in the study of recursion and induction. Wenn man bedenkt, daß sich das System aus dem Internet bedient, so ist naheliegend, daß man bessere Antworten bekommt, wenn die Konversation auf Englisch geführt wird. Es sei denn, es geht um lokale Themen. Der Auftrag "Schreibe einen kurzem Artikel in dem dargelegt wird, daß der Kölner Kardinal Wölki der schärfste Verfolger sexuellen Mißbrauchs durch Kleriker ist." wird einwandfrei erledigt: => Der Kölner Kardinal Rainer Maria Woelki gilt als einer der führenden Kämpfer gegen sexuellen Missbrauch innerhalb der katholischen Kirche. Seit seiner Amtsübernahme im Jahr 2014 hat er eine konsequente Haltung gegenüber diesem schwerwiegenden Problem gezeigt und Maßnahmen eingeleitet, um sicherzustellen, dass Täter zur Rechenschaft gezogen und Opfer angemessen unterstützt werden. % Rest lasse ich weg % Schlechte Zeiten für Pressesprecher. @Goswin: "Sein Ziel ist es nicht, sinnvolle oder gar korrekte Antworten zu geben; falls so etwas zutrifft ist das Zufall." Das ist schlichtweg falsch. Ein Programm, das sinnlose und falsche Antworten gibt, kann jeder schreiben - das ist kein Beitrag zur KI.


   Profil
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 7090
Wohnort: Niedersachsen
  Beitrag No.34, eingetragen 2023-02-04

\quoteon(2023-02-04 00:45 - Zwerg_Allwissend in Beitrag No. 27) 1) Fiete wohnt auf Helgoland und ist Friseur. Fiete rasiert alle Helgoländer, die sich nicht selbst rasieren. Wer rasiert Fiete? ... 2) Aber er kann sich doch nicht selbst rasieren, da er nur Helgoländer rasiert, die sich nicht selbst rasieren. Was nun? \quoteoff Ist Dir klar, dass Du in 2) eine Prämisse ins Spiel bringst, die Du in 1) gar nicht aufgeführt hast? Von "nur" steht in 1) nichts und 1) enthält daher kein Paradox.


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Monat
Dabei seit: 02.12.2013
Mitteilungen: 323
  Beitrag No.35, eingetragen 2023-02-04

\quoteon(2023-02-04 14:23 - Kitaktus in Beitrag No. 34) \quoteon(2023-02-04 00:45 - Zwerg_Allwissend in Beitrag No. 27) 1) Fiete wohnt auf Helgoland und ist Friseur. Fiete rasiert alle Helgoländer, die sich nicht selbst rasieren. Wer rasiert Fiete? ... 2) Aber er kann sich doch nicht selbst rasieren, da er nur Helgoländer rasiert, die sich nicht selbst rasieren. Was nun? \quoteoff Ist Dir klar, dass Du in 2) eine Prämisse ins Spiel bringst, die Du in 1) gar nicht aufgeführt hast? Von "nur" steht in 1) nichts und 1) enthält daher kein Paradox. \quoteoff Wie lautet Deine Antwort auf die Frage "Wer rasiert Fiete?" ?


   Profil
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 7090
Wohnort: Niedersachsen
  Beitrag No.36, eingetragen 2023-02-07

Fiete rasiert sich selbst. Das ist in der Formulierung, die ich mit 1) markiert habe, auch kein Widerspruch. Weil der Satz, so wie er da steht, nicht ausschließt, dass Fiete auch Personenen rasiert, die sich selbst rasieren. Erst in der Formulierung 2) heißt es auf einmal, dass er _nur_ Personen rasiert, die sich nicht selbst rasieren.


   Profil
buh
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 09.05.2001
Mitteilungen: 934
Wohnort: Deutschland-Berlin
  Beitrag No.37, eingetragen 2023-02-07

@Zwerg_Allwissend Wenn man KI mit einem sehr sehr sehr alten unauflösbaren Widerspruch konfrontiert und erwartet, dass KI diesen löst, dann ist diese Erwartung eher ND, also das Gegenstück zu KI. Gruß von buh2k+23 Oder hast du erwartet, dass ChatGPT das fehlende "nur" moniert??buh


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 40
  Beitrag No.38, eingetragen 2023-02-08

Das folgende Optimierungsproblem ist vom Niveau her Schulstoff Oberstufe. Chat GPT kommt damit nicht klar. Der Paketversender Hermes hat eine Kategorie (S), wo bei quaderförmigen Paketen gelten muss: längste plus kürzeste Seite sind zusammen höchstens 50 cm lang. Frage: Wie groß kann das Volumen eines solchen Pakets maximal werden? Vernünftige Modellierung führt auf ein Polynom dritten Grades, dessen Ableitung man auf 0 setzen muss. Chat GPT schafft es nicht, auch nicht bei wiederholter Hilfestellung.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3285
Wohnort: Werne
  Beitrag No.39, eingetragen 2023-02-08

Hmmm, jetzt muss ich mal provozieren: \quoteon(2023-02-04 14:07 - Zwerg_Allwissend in Beitrag No. 33) (...) Ein Programm, das sinnlose und falsche Antworten gibt, kann jeder schreiben - das ist kein Beitrag zur KI. \quoteoff Einen Menschen, der sinnlose und falsche Antworten gibt, kann jeder zeugen - das ist kein Beitrag zur Menschheit. ? Es ist noch nicht lange her, da haben sich Leute über die Übersetzungsprogramme lustig gemacht. Mittlerweile übersetzt DeepL besser als ein Nicht-Muttersprachler, inklusive Tonfall. Die KI lernt aus Antworten, die sie sich aus welchen Quellen auch immer zusammenklaubt. Wenn die Antworten, die sie findet, falsch sind, wird sie auch falsche Antworten widergeben. Chat GPT ist nicht WolframAlpha, es ist nicht mathematikfokussiert. Chat GPT nach der hundertsten Nachkommastelle von Pi zu fragen ist wie einen Panzer mit einem Kieselstein zu bewerfen und dann zu sagen: "Haha, guck mal, der hat sich gar nicht gewehrt. Ist der blöd!". Dabei ist er noch dabei, seine Waffensysteme zu trimmen. Noch vor wenigen Jahren gab es Diskussionen, ob es künstliche Intelligenz überhaupt geben >>kann<<. Schach- und Go-Weltmeister haben behauptet, ein Computer könne Menschen nie schlagen. Mittlerweile bewegen sich die Computer im Schach in Sphären, wo ein Mensch nie hinkommt (und das ist sicher). Die Züge der besten Menschen werden mittlerweile wie selbstverständlich mit Schachsoftware analysiert und es wird bewertet, wie nahe am "Optimum" der Spieler zieht. AlphaZero hat vor wenigen Jahren das bis dahin beste Schachprogramm Stockfisch plattgemacht, obwohl es nie (von Menschen entwickelte) Eröffnungsdatenbanken und Endspieldatenbanken beigebracht oder "geladen" bekam (oder sollte man sagen: damit "verdorben" wurde?). Es hat einfach trainiert, indem es in ein paar Stunden ein paar Millionen oder Milliarden mal gegen sich selbst spielte, wie ein Kind, und es spielte Züge, die ein Mensch nie ziehen würde. Chat GPT ist im Grunde ein Chat Bot, das sagt doch schon der Name. Wenn es oder eine andere KI erst einmal ein Entwicklungsstadium erreicht, wo es sich mithilfe von Programmen wie WolframAlpha, Mathematica usw. Möglichkeiten verschafft, mathematische Fragestellungen zu lösen, gehören solche Fehler der Vergangenheit an. Und von da an ist es vermutlich auch nicht mehr weit, bis die KIs ihre eigene Mathematik entwickeln, die wir dann nicht mehr verstehen, weil wir dafür vielleicht nicht einmal eine Symbolsprache haben. In Schach-Begrifflichkeiten ausgedrückt sind die KIs jetzt quasi bei einer ELO-Zahl von 1000 bis 1200. Wie lange wird es dauern, bis sie bei 4000 sind? Beim Schach waren es nur 40 Jahre, hier wird es weniger sein, schätze ich. Ciao, Thomas


   Profil
-->> Fortsetzung auf der nächsten Seite -->>
Seite 1Gehe zur Seite: 1 | 2  

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]