Matroids Matheplanet Forum Index
Moderiert von Bilbo
Informatik » Sonstiges zur Informatik » Chat GPT: Pi und KI
Thema eröffnet 2022-12-31 13:25 von Bekell
Seite 2   [1 2]   2 Seiten
Autor
Schule Chat GPT: Pi und KI
gonz
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.02.2013
Mitteilungen: 4738
Wohnort: Harz
  Beitrag No.40, eingetragen 2023-02-08

Ich kann das bezüglich deepl nur bestätigen, und "es" lernt wirklich schnell. Anfangs hatte es zB noch Probleme, wenn ich mich zwischen Kontexten bewegt habe (zB Fachtexte eingeworfen habe und und dann einen Text für ein Rollenspiel also zB aus einer Fantasy Welt). Heute erkennt es das schon nach einem kurzen Textfragment und verwendet zB die passende Variante aus dem Bedeutungsbereich eines deutschen Wortes (zumindest bei mir, ich weiß nicht wie viel davon bezogen auf meinen account gelernt wurde). Ich kann einen Großteil der Texte eins zu eins posten, ohne manuell nachzuarbeiten. Ich lese sie eher gegen, um mein eigenes Englisch zu verbessern, weil oft der "aha - so kann man das ausdrücken" Effekt kommt. Grüße, Gonz


   Profil
Kitaktus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.09.2008
Mitteilungen: 7144
Wohnort: Niedersachsen
  Beitrag No.41, eingetragen 2023-02-08

\quoteon(2023-02-08 19:40 - gonz in Beitrag No. 40) ... und und dann einen Text für ein Rollenspiel also zB aus einer Fantasy Welt). \quoteoff Du schreibst Texte für Rollenspiele? Erzähl mir mehr! ;-)


   Profil
gonz
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 16.02.2013
Mitteilungen: 4738
Wohnort: Harz
  Beitrag No.42, eingetragen 2023-02-08

tell me your secret, I'll tell you mine * smile Nein, es ist wirklich witzig, weil der entsprechende "Slang" sich einfach übertrug, was doof ist, wenn man es nicht gegenliest. Was mir übrigens auch aufgefallen ist (ok, OT, weil es ja hier eigentlich nicht um deepl geht): Viele meiner Rollenspielpartner fanden mein Englisch schon "vor deepl" irgendwie altertümlich, einer meinte mal "du schreibst wie mein Großvater spricht". Klar, weil, ich bin eben "älter" und habe mein Englisch hier gelernt und nicht "am puls der zeit" zB in GB oder so. Das wurde mir auch bezüglich der texte, die deepl aus meinem Deutsch gemacht hatte, als Rückmeldung fast gleichlautend mitgeteilt. Dh deepl bildet "meine Macken" oder eben meinen Sprachstil gut nach. Und: Inzwischen finde ich oft, wenn ich an dem englischen Text was korrigiere, zB wiederholungen desselben wortes im Text oder komplizierte formulierungen, dass diese bereits in meinem deutschen Text so standen, deepl also "schlechtes Deutsch" in "schlechtes Englisch" übersetzt hatte. (ok, soweit der optimistische Teil, es gibt auch probleme, die teils systematisch passieren (und bei denen ich davon ausgehe dass deepl das mal lernen wird in naher zukunft), und zum teil sind es einfach ziemlich krasse fehlübersetzungen. Fast könnte man sagen: Wenn deepl etwas falsch macht, dann macht es das _richtig_ falsch ggg). Vielleicht sollten wir einen deepl-thread in parallel aufmachen...


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 02.12.2013
Mitteilungen: 327
  Beitrag No.43, eingetragen 2023-02-09

\quoteon(2023-02-07 20:13 - Kitaktus in Beitrag No. 36) Fiete rasiert sich selbst. \quoteoff Du hast recht, in meiner Formulierung steckte kein Widerspruch. Hatte ich ja auch nicht behauptet. Aber ehrlicherweise muß ich zugeben, daß ich eine widersprüchliche Formulierung beabsichtigt hatte \quoteon(2023-02-07 21:57 - buh in Beitrag No. 37) @Zwerg_Allwissend Wenn man KI mit einem sehr sehr sehr alten unauflösbaren Widerspruch konfrontiert und erwartet, dass KI diesen löst, dann ist diese Erwartung eher ND, also das Gegenstück zu KI. Oder hast du erwartet, dass ChatGPT das fehlende "nur" moniert?? \quoteoff Du kannst gerne mit einen brandneuen Widerspruch beitragen, sogar mit einem unauflösbaren. Dann können wir ja weiter experimentieren. Erwartungen hatte ich keine, ich wollte nur sehen was passiert. Das mit dem "nur" hatte ich übersehen (s.o.). Schade daß ChatGPT das nicht gemerkt hat. \quoteon(2023-02-08 12:52 - MontyPythagoras in Beitrag No. 39) \quoteon(2023-02-04 14:07 - Zwerg_Allwissend in Beitrag No. 33) (...) Ein Programm, das sinnlose und falsche Antworten gibt, kann jeder schreiben - das ist kein Beitrag zur KI. \quoteoff Einen Menschen, der sinnlose und falsche Antworten gibt, kann jeder zeugen - das ist kein Beitrag zur Menschheit. \quoteoff Und wie macht man das? Egal, für jemanden mit natürlicher Intelligenz sollte schon klar sein was gemeint ist. Weiter oben wurde ja schon Joseph Weizenbaums ELIZA vom Ende der 70er genannt. ELIZA hat keine falschen Antworten gegeben weil es keine Antworten hatte. Auf die Frage "What do you know about sex?" kam nur zurück "Does that really interest you?". Es war interessant, wie Leute auf ELIZA reagierten obwohl es nichts zu sagen hatte. Weizenbaum hat darüber ein Buch geschrieben. Seine Leistung bestand auch darin, so ein Programm mit den technischen Mitteln der 70er überhaupt zu implementieren. Und es war ein interessantes LISP Experiment. KI war das aber nicht. Irgendwo in diesem Thread hat jemand schon auf "regelbasierte" Systeme verwiesen. Die bekommt man leichter in den Griff, etwa beim Automatischen Beweisen. Spiele wie Schach und Go gehören auch dazu. Es geht hierbei darum, den inherenten Indeterminismus in den Griff zu bekommen. Entweder durch clevere Heuristiken oder aber mit Brute Force, wobei hier auch der technische Fortschritt (Hardware) eine große Rolle spielt. Bei diesen Programmen ist der Gegenstandsbereich stark eingeschränkt, Logik 1. Stufe oder eben nur das Spiel. Im Unterschied dazu ist der Diskursbereich von Deepl und ChatGPT völlig offen, das ist ein großer Unterschied. Das macht die Sache schwieriger und das Ergebnis um so anerkennenswerter. Deepl ist wirklich brauchbar und nützlich, und wird menschliche Übersetzer ersetzen. Man denke nur an die unzähligen Verordnungen der EU, die von Heerscharen von Übersetzern in die 25 (?) Landessprachen übertragen werden müssen. Mit Deepl braucht man nur noch einen muttersprachlichen Fachmann, der sich das Ergebnis anschaut. Wozu ChatGPT zu gebrauchen ist, ist (mir) noch unklar. Aber es wird sich schon etwas zum Geldverdienen finden. Einstweilen ist bzgl. KI der Turingtest der Maßstab. Und den absolviert es m.E mit Bravour.


   Profil
late-night
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 04.06.2021
Mitteilungen: 42
  Beitrag No.44, eingetragen 2023-02-09

DeepL ist ein GameChanger. Vor zwei Jahren hatte ein gestandener Mathematiker ein Fach-Buch in einem angesehenen Verlag herausgebracht, auf Englisch. Es verkauft(e) sich gut. Jetzt bekam der Mann eine Mail von "seinem" Verlag. Sie hätten überlegt, dass doch eigentlich eine Übersetzung seines Buchs ins Deutsche eine gute Idee wäre. Sie hätten das schon mal von DeepL grob machen lassen. Die einzelnen Kapitel lägen auf dem und dem Server. Er müsse nur drüber gucken, die kleinen Ungenauigkeiten beseitigen und ansonsten nur den Vertrag für die deutsche Auflage unterschreiben. Er war erst skeptisch, dann aber positiv überrascht. So wird es sein Buch bald auch auf deutsch geben. L-N


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.45, eingetragen 2023-02-09

Simpel gesprochen ist die "Aufgabe" für Chat GPT viel schwieriger als die der "spezialisierten" KIs wie DeepL oder AlphaZero. AlphaZero im Schach oder AlphaGo (das war ja wohl im Kern die gleiche KI) bekamen nur einen sehr überschaubaren Satz an Regeln vorgegeben, und ansonsten konnten sie sich, völlig ungetrübt von menschlicher Vor(un)kenntnis und Vorurteil, ihr eigenes Wissen und Erfahrung erarbeiten im Training gegen sich selbst. DeepLs einzige Aufgabe ist, zu übersetzen. Schwierig genug, aber es muss nicht den Inhalt des zu übersetzenden Textes auf Wahrheitsgehalt prüfen. Offenbar wird von Chat GPT nun erwartet, und das finde ich hochgradig lachhaft, dass es sich das gesamte Fachwissen der Menschheit quasi über Nacht aneignet, komplizierte Fragen beantworten kann, die sonst Spezialsoftware (wie Mathematica etc.) erfordern würden, und außerdem gleichzeitig noch in der Lage sein soll, falsch von richtig zu unterscheiden. Denn zig Millionen Benutzer, die sich alle sofort angemeldet haben, füttern Chat GPT wahrscheinlich auch noch unaufhörlich mit falschen Antworten. Das einzige, dem ich zustimmen würde, ist, dass das Programm bei sehr konkreten Fragen vielleicht eine "Wahrscheinlichkeit" oder "Sicherheit", z.B. in Prozent, angeben sollte, wie verlässlich die Antwort ist. Die Antworten, die Chat GPT von den Nutzern erhält, sollte es besser nicht zum Lernen heranziehen, sondern nur, wenn es Zugriff auf entsprechende Expertensysteme bekäme - wie die Regeln im Schach eben. Die Frage ist, ob man das will. Die Hersteller der Expertensysteme sicher nicht, denn die wollen damit ja Geld verdienen. Wenn sich Chat GPT aber alles selbst zusammenreimen muss, wird es noch ein Weilchen beschäftigt sein, wie ein Richter in einem komplizierten Prozess, der die Aussagen von x Zeugen entwirren und die Wahrheit herausfinden muss, in dem Bewusstsein, dass die Zeugen aus welchen Motiven auch immer vielleicht nicht die Wahrheit sagen. Nur dass Chat GPT die Aussagen von hunderten Millionen Zeugen analysieren muss, die alle gleichzeitig quasseln. Da bekomme ich glatt ein bisschen Mitleid mit Chat GPT... 😂 Ciao, Thomas


   Profil
Folgende Antworten hat der Fragensteller vermutlich noch nicht gesehen.
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 02.12.2013
Mitteilungen: 327
  Beitrag No.46, eingetragen 2023-02-09

\quoteon(2023-02-09 09:57 - MontyPythagoras in Beitrag No. 45) Simpel gesprochen ist die "Aufgabe" für Chat GPT viel schwieriger als die der "spezialisierten" KIs wie DeepL oder AlphaZero. AlphaZero im Schach oder AlphaGo (das war ja wohl im Kern die gleiche KI) bekamen nur einen sehr überschaubaren Satz an Regeln vorgegeben, und ansonsten konnten sie sich, völlig ungetrübt von menschlicher Vor(un)kenntnis und Vorurteil, ihr eigenes Wissen und Erfahrung erarbeiten im Training gegen sich selbst. DeepLs einzige Aufgabe ist, zu übersetzen. Schwierig genug, aber es muss nicht den Inhalt des zu übersetzenden Textes auf Wahrheitsgehalt prüfen. \quoteoff So wie ich das sehe, hat ChatGPT gar keine Aufgabe. Es ist ein Programm das eine Konversation mit einem Menschen so führen soll, daß man nicht sofort den Eindruck erhält, daß man mit einer Maschine kommuniziert. Und alle, die es verwenden, sind Tester für die Entwickler. Heute habe ich mit einem Mitarbeiter einer Softwarefirma gechattet. Es ging darum, ob die angebotene Software meinen Wünschen genügt. Hier wird man zukünftig ChatGPT einsetzen können. Die Welt der angebotenen Produkte der Firma ist überschaubar und man kann das Programm so trainieren, daß es nach einiger Zeit nur noch korrekte Antworten gibt oder insbesondere merkt, wenn es eine Frage nicht beantworten kann. Das gilt für alle Anwendungsbereiche in denen es um Beratung geht, denn hier gibt es immer eine eingeschränkte Diskurswelt. Niemand erwartet von einem Steuerberater Auskunft über Sinn und Zweck einer Darmspiegelung oder fragt seinen Hausarzt ob der Abschluß einer Reisegepäckversicherung ein lohnendes Unterfangen ist. D.h., die eingeschränkte Diskurswelt erlaubt eine hohe Qualität der Ergebnisse ohne daß die Einschränkung einen Mangel darstellt. Bei Deepl ist das anders. Übersetzung heißt ja bedeutungserhaltende Transformation einer sprachlichen Äußerung von einer Sprache in eine andere. Diese Äußerung kann sich aber auf alles beziehen, worüber man sprechen kann. D.h., die Diskurswelt ist offen und das macht die Sache schwieriger als für ChatGPT (wenn man es so einsetzt wie gerade beschrieben). Bei Deepl ist das Qualitätskriterium "bedeutungserhaltend" und nicht "wahr" oder "falsch". Und um bedeutungserhaltend zu übersetzen muß zunächst die Bedeutung ermittelt werden. Man sieht die potentiellen Stolpersteine in den Beispielen oben: Auf die Frage nach einer "wohl-fundierten Relation" interpretiert ChatGPT den Begriff als "soziale Beziehung" während bei "well-founded relation" eine mathematischer Begriff unterstellt wird.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.47, eingetragen 2023-02-10

Hallo Zwerg_Allwissend, \quoteon(2023-02-09 19:29 - Zwerg_Allwissend in Beitrag No. 46) So wie ich das sehe, hat ChatGPT gar keine Aufgabe. \quoteoff nenn es Zweck oder Ziel, aber der Zweck ist sicher nicht, Leute zu bespaßen und den Schülern die Hausaufgaben abzunehmen. Der Zweck von AlphaZero war ja auch nicht, das "klassisch" programmierte Stockfish in Schach plattzumachen, sondern es war eine Machtdemonstration, was mit KI schon möglich ist. Ein paar Stunden Training reichten, um die Jahrzehnte menschlicher (Schach)Erfahrung obsolet zu machen. Eigentlich löst AlphaZero inzwischen ganz andere Probleme, wie das Falten von Proteinen. Chat GPT wird mittelfristig CallCenter, Supporthotlines etc. überflüssig machen, aber wer weiß, auf welche Zwecke man noch kommt. Ich habe gestern spaßeshalber mal einen englischen Abstract aus einem wissenschaftlichen Artikel zu Chat GPT hochgeladen mit den einleitenden Worten: "Could you please reword the following text so as to make it better readable and understandable to average laymen without scientific education:" und dann folgte der typisch wissenschaftliche, gestelzte Text. Das Ergebnis war genial. Der Inhalt wurde komplett richtig erfasst, aber der Text war sehr gut verständlich. Die bedeutungserhaltende Umsetzung (es war ja keine >>Über<


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 02.12.2013
Mitteilungen: 327
  Beitrag No.48, eingetragen 2023-02-10

\quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) nenn es Zweck oder Ziel, aber der Zweck ist sicher nicht, Leute zu bespaßen und den Schülern die Hausaufgaben abzunehmen. \quoteoff Sicher nicht. Wir sind in einer Testphase, und alle Nutzer sind die Tester. \quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) Chat GPT wird mittelfristig CallCenter, Supporthotlines etc. überflüssig machen, aber wer weiß, auf welche Zwecke man noch kommt. \quoteoff Genau, und damit wird dann das Geld verdient. \quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) Ich habe gestern spaßeshalber mal einen englischen Abstract aus einem wissenschaftlichen Artikel zu Chat GPT hochgeladen mit den einleitenden Worten: "Could you please reword the following text so as to make it better readable and understandable to average laymen without scientific education:" und dann folgte der typisch wissenschaftliche, gestelzte Text. Das Ergebnis war genial. \quoteoff Wundert mich nicht. \quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) Die bedeutungserhaltende Umsetzung (es war ja keine >>Über<Beitrag No. 47) Würde man ein "Math GPT" ins Leben rufen und auf die mathematische Terminologie durch ausschließlich geeignete Quellen und durch Mathematiker trainieren, wäre das wohl nur eine Frage von Wochen. Versuch das selber mal. \quoteoff Genauso ist es. \quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) Beeindruckt wäre ich, wenn Chat GPT irgendwann antwortet: "Also, hier kommt die Übersetzung, wenn Du unbedingt möchtest... aber das, was da steht, ist Stuss!" 😂 \quoteoff Das kommt noch. Aber: Das funktioniert nur auf Basis von bekanntem Wissen (was schon für sich eine große Leistung wäre). Beim Auftrag "Löse das P-NP Problem" oder "Beweise oder widerlege die Goldbach Vermutung" würde es scheitern. Aber das wäre jetzt auch zu viel verlangt.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.49, eingetragen 2023-02-10

Hallo Zwerg_Allwissend, \quoteon(2023-02-10 13:18 - Zwerg_Allwissend in Beitrag No. 48) \quoteon(2023-02-10 11:06 - MontyPythagoras in Beitrag No. 47) Beeindruckt wäre ich, wenn Chat GPT irgendwann antwortet: "Also, hier kommt die Übersetzung, wenn Du unbedingt möchtest... aber das, was da steht, ist Stuss!" 😂 \quoteoff Das kommt noch. Aber: Das funktioniert nur auf Basis von bekanntem Wissen (was schon für sich eine große Leistung wäre). Beim Auftrag "Löse das P-NP Problem" oder "Beweise oder widerlege die Goldbach Vermutung" würde es scheitern. Aber das wäre jetzt auch zu viel verlangt. \quoteoff Stand heute: definitiv. Stand 2025: wer weiß? Mochizukis Beweis (oder Nichtbeweis) der abc-Vermutung verwendet Konzepte, die er selbst entwickelt hat und die vielleicht auf breiter Front nicht verstanden werden, selbst von den derzeit weltweit führenden Mathematikern nicht. Ist sein Beweis also falsch oder nur unverstanden? Wer weiß, ob nicht eine spezielle, mathematische KI den Beweis irgendwann "verstehen" und bestätigen oder widerlegen könnte. Es gab hier auf dem MP schon einmal eine Diskussion darüber, wie eigentlich in Zukunft die Überprüfung von Beweisen, die mit Computerhilfe erstellt oder sogar von Computern geführt wurden, erfolgen soll. Ich habe damals schon argumentiert, dass wir an der Schwelle stehen zu einem Zeitalter, in dem vielleicht schon die mathematischen Fragestellungen die Vorstellungskraft auch der besten Mathematiker sprengen, geschweige denn deren Beweis. Wiles Beweis der Fermatschen Vermutung ist wohl an der Grenze dessen, was einige wenige Menschen so gerade noch verarbeiten können. Was ist, wenn eine Mathematik KI irgendwann sagt: "P-NP, na klar, ist doch einfach, aber sorry, Euch kann ich es nicht erklären, die Lösung ist in Eurer begrenzten mathematischen Symbolsprache nicht darstellbar." Eigenschaften oder geistige Fähigkeiten, die frühere Science-Fiction-Autoren bestenfalls Außerirdischen zugetraut hätten, werden nun vielleicht wahr durch unser eigenes Schaffen. (Goethes Zauberlehrling schnipst mit dem Finger). Die Frage, ob man einen Computerbeweis als Beweis akzeptiert, wird vielleicht rein akademisch bleiben und von der Realität überholt werden, weil man vielleicht einfach 5 unterschiedliche KIs draufhetzen wird, und wenn die sich einig sind, gilt es als bewiesen. Die menschlichen Mathematiker werden vielleicht daneben stehen und mit den Schultern zucken, wie Achtklässler neben dem Beweis von Wiles. Alles Spekulation, ich weiß, aber das menschliche Gehirn auch der besten Denker ist genauso begrenzt wie die Muskulatur der besten Sportler. Vor Äonen musste ein Mensch alles persönlich regeln: Gewichte heben, laufen um zu überleben, Jagdstrategien durchdenken. Dann hat er zunächst Tiere als Multiplikatoren für Körperkraft genutzt, aber schon bald danach mechanische Maschinen. Das ist Jahrtausende her. Wenn heute ein Mensch Gewichte hebt, dann als Sport. Für große Gewichte gibt es Kräne. Wenn ein Mensch heute läuft, dann als Sport. Für große Entfernungen gibt es Fahrzeuge. Wenn ein Mensch zukünftig Mathematik betreibt - dann als Denksport? Ja, es wird noch ein paar Experten geben müssen, die die KI bedienen und entwickeln können, so wie es heute ein paar Experten gibt, die Kräne und Fahrzeuge bauen können. Aber das war's langfristig, wenn Du mich fragst. Ciao, Thomas


   Profil
DerEinfaeltige
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 11.02.2015
Mitteilungen: 3281
  Beitrag No.50, eingetragen 2023-02-10

\quoteon(2023-02-10 16:10 - MontyPythagoras in Beitrag No. 49) Stand heute: definitiv. Stand 2025: wer weiß? \quoteoff Da erscheinst du recht technikgläubig. Vernünftige Texte schreiben können auch manche Schriftsteller und Journalisten. Das macht noch keine Asimov'sche Maschine aus. AlphaZero und nach ihm bspw. LeelaChess spielen Schach auf dem Niveau der stärksten klassischen Engines. Nicht mehr und nicht weniger. Weder haben sie das Gebiet revolutioniert noch sind sie signifikant stärker. Die letzten TCEC-Turniere bspw. wurden schön abwechselnd von Stockfish und Leela gewonnen, die sich seit Jahren nahezu im Gleichtakt langsam weiterentwicklen. AlphaStar spielte nach relativ kurzer Lernphase Starcraft 2 auf Profiniveau. In Bereichen, die man gut "linear" erlernen kann, wohl auch stärker. Taktiken (bspw. Wall-offs oder Drop-Harassment), die mutmaßlich gezielte "Planung" oder hochgradig "nicht-lineares" Lernen erfordern, entwickelte es allerdings nicht selbständig und "wusste" auch nicht, wie es damit defensiv umgehen sollte.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.51, eingetragen 2023-02-10

Hallo DerEinfältige, \quoteon(2023-02-10 18:57 - DerEinfaeltige in Beitrag No. 50) Da erscheinst du recht technikgläubig. \quoteoff Nö, ich extrapoliere. Was konnten KIs vor 50 Jahren? Praktisch gar nichts. In welchen Zeiträumen wurden mechanische Maschinen entwickelt? Über Jahrhunderte. Alpha von DeepMind kann in kürzester Zeit Schach lernen, Shogi, Go, etc., im Grunde jedes Spiel, welches einen klar definierten Satz Regeln hat. Wie gut ist Stockfish denn in Go, oder im Proteine falten? Entwicklungszeit ohne Ende steckt in den Spezialprogrammen wie Stockfish, AlphaZero brauchte ein paar Stunden, um auf das gleiche Niveau zu kommen. Ich kenne natürlich auch die ganze Kritik, die geäußert wurde an den "Wettkämpfen" zwischen AlphaZero und Stockfish, manches ist auch verständlich, aber für mich klingt das überwiegend nach dem Mimimi eines schlechten Verlierers. Aber Schach ist wahrscheinlich ohnehin ein zu einfaches Spiel, als dass die KI ihren Vorteil voll ausspielen könnte. Wenn irgendwann zwei Engines mit ELO 5000 gegeneinander spielen, endet wahrscheinlich jedes Spiel Remis. In Go dagegen existierte bis 2015 nicht einmal ein Go-Computerprogramm (siehe Go-Wiki), welches auch nur starke Amateure schlagen konnte, geschweige denn Weltklasse-Spieler. 2015 kommt AlphaGo und schlägt den damals weltbesten Go-Spieler, Lee Sedol, 4:1, nachdem dieser vorher erklärt hatte, er werde haushoch gewinnen, siehe hier... \quoteon(2023-02-10 18:57 - DerEinfaeltige in Beitrag No. 50) Taktiken (bspw. Wall-offs oder Drop-Harassment), die mutmaßlich gezielte "Planung" oder hochgradig "nicht-lineares" Lernen erfordern, entwickelte es allerdings nicht selbständig und "wusste" auch nicht, wie es damit defensiv umgehen sollte. \quoteoff Und wie würde ein Mensch nach dieser Erfahrung damit umgehen? Er würde sich weiterbilden, nach Quellen suchen, um zu lernen, wie man mit diesen Taktiken umgeht, um selber besser zu werden. Alpha konnte das natürlich nicht, aber eine KI wie Chat GPT vielleicht irgendwann schon. Wenn AlphaZero also Chat GPT fragen könnte, wie es mit so einer Taktik beim nächsten Mal umgehen soll, und Chat GPT würde ihm Tipps geben? (Falsche, natürlich... 😄) Oder anders herum: Chat GPT spielt, Alpha flüstert die Tipps. 2025 als das Jahr, wann KIs die schwierigsten mathematischen Probleme dieser Zeit lösen, ist wahrscheinlich deutlich zu optimistisch, das ist mir klar. Aber denke mal in den Zeiträumen, in denen mechanische Maschinen entwickelt wurden - also noch 500 Jahre KI-Weiterentwicklung, und es ist klar, dass das menschliche Gehirn vor der Ablösung steht. Wenn es denn solange noch menschliche Gehirne gibt, vielleicht wird ja auch vorher der Mensch als Ganzes von der Evolution aussortiert. Ciao, Thomas


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 02.12.2013
Mitteilungen: 327
  Beitrag No.52, eingetragen 2023-02-12

\quoteon(2023-02-10 16:10 - MontyPythagoras in Beitrag No. 49) Es gab hier auf dem MP schon einmal eine Diskussion darüber, wie eigentlich in Zukunft die Überprüfung von Beweisen, die mit Computerhilfe erstellt oder sogar von Computern geführt wurden, erfolgen soll. ... Die Frage, ob man einen Computerbeweis als Beweis akzeptiert, wird vielleicht rein akademisch bleiben und von der Realität überholt werden, weil man vielleicht einfach 5 unterschiedliche KIs draufhetzen wird, und wenn die sich einig sind, gilt es als bewiesen. Die menschlichen Mathematiker werden vielleicht daneben stehen und mit den Schultern zucken, wie Achtklässler neben dem Beweis von Wiles. \quoteoff Es kommt darauf an, was man unter einem Computerbeweis versteht. Ich verstehe darunter ein Beweis in Termini der mathematischen Logik. Solche Beweise werden von Automatischen Beweisern und von interaktiven Beweissystemen (auch Beweisassistenten genannt) berechnet. Solche Beweise sind genauso schwer oder einfach nachzuvollziehen wie Beweise von Menschen. Vorausgesetzt, das Beweissystem präsentiert den berechneten Beweis in einer lesbaren Form, versteht sich. Unter dieser Voraussetzung gibt es in der Community keine Diskussion darüber ob man einen Computerbeweis als Beweis akzeptiert. Das Problem liegt woanders. Die Schwierigkeit zu einer vorgelegten (wahren) Behauptung einen Beweis zu finden ist sehr viel größer, als eine Konversation a la ChatGPT zu führen oder eine Partie Schach oder Go zu gewinnen. Jeder, der mal versucht hat einen Beweis für eine nicht-triviale Behauptung zu führen, für die noch kein Beweis bekannt ist, hat folgende Erfahrung gemacht: (1) Konzeptproblem: Es ist mitunter erforderlich neue Konzepte/Begrifflichkeiten zu entwickeln und darüber Eigenschaften zu beweisen, um das eigentlich Beweisproblem zu lösen. D.h., man muß erst geeignete Werkzeuge erfinden, um die ursprüngliche Fragestellung zu attackieren. (2) Dekompositionsproblem: Es ist erforderlich nützliche Lemmata zu formulieren (d.h. zu "erfinden") mit deren Hilfe die Ausgangsbehauptung bewiesen werden kann. Zum Beweis solcher Lemmata sind eventuell weitere Lemmata erforderlich. Ein Beispiel: Um Wilson's Theorem, also (*) ∀p:ℕ ℙ(p) → ((p-1)! mod p) = p-1 zu beweisen (ohne daß man den bekannten Beweis kennt), erfindet man das Konzept der Restklasse modulo einer Primzahl und beweist, daß das eine Gruppe ist. Zum Beweis dessen, "erfindet" man den "kleinen Fermat" und beweist diesen auch. Das erfordert weitere nützliche Lemmata zu "erfinden" (also anspruchsvolle, nicht etwa Distributivität zwischen Addition und Multiplikation etc.). Es gibt kaum Arbeiten um das Konzeptproblem und Dekompositionsproblem algorithmisch zu lösen, nicht vollständig, das ist ohnehin prinzipiell unmöglich, aber zumindest in manchen anspruchsvollen Fällen. Für einfache Beispiele klappt das, aber das hilft im wahren (mathematischen) Leben nicht weiter. Zu den genannten Schwierigkeiten kommt noch, daß Beweise nicht immer automatisch berechnet werden können selbst wenn alle erforderliche Konzepte und Lemmata dem System bereits bekannt sind. Stand der Kunst sind daher interaktiven Systeme, z.B. Isabelle, Coq, ACL2, PVS, ... . "Interaktiv" heißt, daß der Benutzer Konzept- und Dekompositionsproblem selbst lösen muß. Beispielsweise formuliert er ein nützliches Lemma, läßt dieses durch das System beweisen das dadurch in die Lage versetzt wird beim Beweis der Ausgangsbehauptung weiterzukommen. VeriFun ist auch so ein Beweisassistent, mit dem man z.B. den Beweis von (*) nachvollziehen kann. Dieser Beweis erfordert 751 Beweisregelanwendungen von denen 128 interaktiv eingegeben werden müssen. Der zugrunde liegende automatische Beweiser (Logik 1. Stufe) führt 14.090 Schritte durch. Gemessen am state-of-the-art bist Du also bei Weitem zu optimistisch. Im Handelsblatt habe ich kürzlich gelesen: "ChatGPT und ähnliche Bots schreibenAufsätze, formulieren juristische Gutachten, legen Beschwerde bei Behörden ein und liefern auf Knopfdruck Werbesprüche und sogar Gedichte – in perfektem Englisch natürlich, aber längst auch auf Deutsch, wie unser großer Wochenendreport zeigt. ... Was eine KI gewiss noch einige Jahre nicht können wird, ist, wirklich Neues in die Welt zu bringen, Informationen zurecherchieren, die noch nicht öffentlich sind, Fragen zu stellen, die noch nie gestellt wurden, und, ja, auch Kunstwerke zuschaffen, die in dieser Form noch nie geschaffen wurden." Genau das ist der Punkt: Kreativität! Und die wird bislang von KI Systemen noch nicht geliefert. Und ob dies je erreicht werden kann ist zum heutigen Zeitpunkt rein spekulativ.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.53, eingetragen 2023-02-12

Hallo Zwerg_Allwissend, ich denke, wir sprechen über unterschiedliche Zeiträume. Hätte irgendjemand vor einem halben Jahrhundert vorhergesagt, dass innerhalb von 30 Jahren ein Computer die weltbesten Schachspieler schlägt, und wenige Jahre danach sogar ziemlich mühelos? Ich denke, außer einigen Science-Fiction-Romanautoren (z.B. Clarke "2001"), eher nein. Was Du zur grundsätzlichen mathematischen Beweisführung aufzählst, gilt heute. Wird es für immer gelten? "Fantasie" und "Kreativität" sind dann immer die Schlagworte, hinter denen sich die Skeptiker verstecken. Ironischerweise hat Lee Sedol und haben auch etliche Schachexperten nach den Erfolgen der KIs gegen die Go- und Schachspieler den KIs genau das attestiert - was für mich letztlich bedeutet, dass Fantasie und Kreativität auch nur die Summe aus Wissen, Erfahrung und intellektueller Transferleistung sind. In dieser Beziehung mag unser Gehirn sich derzeit noch auf einem deutlich höheren Niveau bewegen als eine KI, aber was nicht ist, kann ja noch werden. Ein Gehirn verschaltet auch nur Synapsen miteinander, es ist ein biologischer Computer, an dem die Natur Millionen von Jahren getüftelt hat (das hat sie jetzt davon). Es ist schon eine ziemliche Ironie, wenn ausgerechnet Mathematiker mit der Weigerung, einer KI (langfristig) ähnliche kreative Fähigkeiten zuzutrauen, an einem "göttlichen Funken" festhalten. Das ist schon eine Art "Bio-Chauvinismus". \quoteon Was eine KI gewiss noch einige Jahre nicht können wird, ist, (...) Informationen zu recherchieren, die noch nicht öffentlich sind (...) \quoteoff Ich nehme an, Dir ist das Paradoxon in diesem Satz bewusst... Ich bin auch nicht (blind) technikgläubig. Technik hat vieles möglich gemacht, was mal ganz angenehm war, aber uns heute oder spätestens mittelfristig sehr schadet. Es wird riesige Anstrengungen und Opfer kosten, den Saustall, den uns unser Gehirn eingebrockt hat, wieder aufzuräumen. Vielleicht kann KI irgendwann dabei helfen, vielleicht macht sie es auch noch schlimmer. Wir könnten wahrscheinlich noch seitenweise darüber diskutieren, aber es ist letztlich im Moment alles Kaffeesatzlesen, oder wie Du zurecht sagtest, "spekulativ". Extrapolieren ist immer mit Unsicherheiten verbunden. Ciao, Thomas


   Profil
Zwerg_Allwissend
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 02.12.2013
Mitteilungen: 327
  Beitrag No.54, eingetragen 2023-02-12

\quoteon(2023-02-12 17:52 - MontyPythagoras in Beitrag No. 53) Hätte irgendjemand vor einem halben Jahrhundert vorhergesagt, dass innerhalb von 30 Jahren ein Computer die weltbesten Schachspieler schlägt, und wenige Jahre danach sogar ziemlich mühelos? \quoteoff Vor 50 Jahren saß ich im Keller des Mathematischen Instituts an einem Siemens Fernschreiber, der mit einer Electrologica X8 verbunden war (256K RAM, Kernspeicher), und wartete (wie 11 weitere Studenten auch) darauf, daß die Maschine endlich mein ALGOL 60 Program ausführt. Der technische Fortschritt innerhalb der letzten 50 Jahre ist für die heutige Generation, die mit ihren Smartphones aufwächst, praktisch unvorstellbar. Ich will das nicht weiter vertiefen, das wäre dann so wie Uropas Erzählungen vom letzten Krieg. Soweit ich mich erinnere, hat in diesen Tagen niemand daran gedacht Computer überhaupt mit Schach oder anderen Spielen zu befassen. Vielleicht dachten die Teilnehmer der Dartmouth Conference 15 Jahre zuvor schon daran, aber die galten bei gestandenen Akademikern sowieso als Spinner. \quoteon(2023-02-12 17:52 - MontyPythagoras in Beitrag No. 53) Was Du zur grundsätzlichen mathematischen Beweisführung aufzählst, gilt heute. Wird es für immer gelten? "Fantasie" und "Kreativität" sind dann immer die Schlagworte, hinter denen sich die Skeptiker verstecken. \quoteoff Ob das immer gelten wird kann ich nicht sagen. Nur kenne ich die Probleme in diesem Gebiet aus eigener Anschauung. Insoweit muß ich mich auch nicht verstecken. Ich wäre einer der ersten, die "Hurra, endlich!" rufen, wenn eines der in #52 genannten Probleme gelöst wären. Deine Sicht auf die KI ist insoweit irreführend, weil Du Dich vorwiegend auf Spiele beziehst. Durch die zahlreichen Zugalternativen zwischen denen Schwarz und Weiß beim Schach wählen kann, entsteht ein gigantischer Suchraum. Ohne den technische (Hardware) Fortschritt wären die Erfolge beim Schach und Go überhaupt nicht möglich. Natürlich reicht das nicht, man braucht auch clevere Algorithmen. Aber ich bin überzeugt, daß die Ergebnisse dieser Programme weniger beeindruckend wären würde man Sie auf Rechnern des Jahres 2000 ausführen. Jedenfalls ist die Beherrschung von Spielen kein Paradigma für Kreativität. Es gibt ja auch keine Semantik und es wird nichts geleistet, außer den Gegenspieler "auf die Matte" zu bekommen. Damit meine ich nicht, daß die Entwicklung solcher Programme keine große Leistung ist. Nur taugen Sie eben nicht zur Extrapolation. \quoteon(2023-02-12 17:52 - MontyPythagoras in Beitrag No. 53) Es ist schon eine ziemliche Ironie, wenn ausgerechnet Mathematiker mit der Weigerung, einer KI (langfristig) ähnliche kreative Fähigkeiten zuzutrauen, an einem "göttlichen Funken" festhalten. Das ist schon eine Art "Bio-Chauvinismus". \quoteoff Du meinst jetzt aber nicht mich, oder? Ich denke, zum gegenwärtigen Zeitpunkt gibt es weder Anhaltspunkte dafür, daß dieses Ziel je erreicht werden kann noch dafür, daß dieses Ziel nie erreicht wird. \quoteon(2023-02-12 17:52 - MontyPythagoras in Beitrag No. 53) \quoteon Was eine KI gewiss noch einige Jahre nicht können wird, ist, (...) Informationen zu recherchieren, die noch nicht öffentlich sind (...) \quoteoff Ich nehme an, Dir ist das Paradoxon in diesem Satz bewusst... \quoteoff Habe ich jetzt nicht verstanden. Der Autor ist Journalist und meint wohl sowas wie die Recherchen von Woodward & Bernstein zur Watergate-Affäre. Als Journalist nimmt er das als Beispiel für Kreativität in seinem Gebiet, so hatte ich das jedenfalls verstanden. \quoteon(2023-02-12 17:52 - MontyPythagoras in Beitrag No. 53) Ich bin auch nicht (blind) technikgläubig. Technik hat vieles möglich gemacht, was mal ganz angenehm war, aber uns heute oder spätestens mittelfristig sehr schadet. \quoteoff Ich denke, es liegt nicht an der Technik sondern an der Politik, die festlegt oder nicht festlegt, welche Technik in Umlauf kommt und welche nicht. Man denke nur an die Waffengesetzgebung in den USA, die Elimination der Insekten durch Glyphosat und Konsorten oder diese Riesen-SUVs mit ihrem immensen Gewicht und freier-Fahrt-für freie-Bürger auf den Autobahnen.


   Profil
Knaaxx
Senior Letzter Besuch: im letzten Quartal
Dabei seit: 06.05.2006
Mitteilungen: 2730
  Beitrag No.55, eingetragen 2023-02-13

Ich stehe hier eher an der Seite von MontyPythagoras. Kreativität zB, was soll das sein? Das ist eine Aneinanderreihung von Wissen (selbst Gefühle sind nichts anderes als Wissen), gemischt mit (persönlichen) Verschaltungen usw. Alle diese Elemente sind nachstellbar. So ist es in der Tat zu erwarten, dass in "einigen" Jahren KIs die Mathematiker sein werden. Eine KI muss nicht zwangsläufig x Definitionen ersinnen, y Lemmata erstellen um irgenwas erschließen zu können. Wir Menschen brauchen das als Stütze weil wir ansonsten von der Komplexität erschlagen werden würden. Erforderlich ist das aber nicht. Der Gedanke, da existiere ein fundamentaler unüberwindbarer Unterschied in den Strukturen zwischen lebender Denkmaschine und toter Denkmaschine, der wird sich als ungültig erweisen.


   Profil
MontyPythagoras
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 13.05.2014
Mitteilungen: 3339
Wohnort: Werne
  Beitrag No.56, eingetragen 2023-03-24

... und mit dieser Nachricht hat sich die Diskussion um die mathematischen Fähigkeiten von Chat GPT wohl erledigt: ChatGPT Gets Its “Wolfram Superpowers”. Ciao, Thomas


   Profil
majoka
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 25.02.2014
Mitteilungen: 810
  Beitrag No.57, eingetragen 2023-03-27

Der folgende Link hätte, zumindest teilweise, auch ins LaTex-Forum gepasst. Microsoft sieht einen Funken von allgemeiner künstlicher Intelligenz in GPT-4.


   Profil
Seite 2Gehe zur Seite: 1 | 2  

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]