Schlecht bei Nachrichten, Faktenchecks / Wissenschaft, Mathe, sozialen Interaktionen, Ratschlägen.. aber hey immerhin haben wir photorealistische Fake-Videos von lustigen Tieren und Emails die keiner lesen will.
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Aus gegebenem Anlass werden Posts zum Thema Palästina / Israel hier auf Dach gelöscht. Dasselbe gilt zurzeit für Wahlumfragen al´a Sonntagsumfrage.
___
Einsteigertipps für Neue gibt es hier.
___
Aus gegebenem Anlass: Bitte Titel von Posts nur sinnerweiternd und nicht sinnentstellend verändern. Eigene Meinungen gehören in den Superkommentar oder noch besser in einen eigenen Kommentar darunter.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
Wer hätte nur ahnen können dass genau das passiert vor dem Experten immer gewarnt haben?
Hab gestern mal gegoogelt, ob man Travelgitarren im Flieger als Handgepäck mitnehmen darf. Gemini rotzt da einfach voller selbstbewusstsein heraus "Logen Digger, einfach drauf achten dass die Maße nicht 1,55m x bla m x sülz m überschreiten!". Das roch schon nach bullshit, also hab ich dann doch den mühseligen weg genommen und mir das mal bei der Lufthansa Homepage direkt angeschaut. Die Maße waren zwar korrekt, aber nur wenn man ein Ticket für einen 2. Sitz bucht.
Das war erstens umständlicher als es einfach auf traditionelle Weise zu recherchieren und zweitens schauen nachher viele Musiker dumm aus der Wäsche, wenn die ihre Travelgitarre als Gepäck aufgeben müssen und diese dann in mehreren kaputten Teilen ankommt.
Hat zwar wenig mit Nachrichten zu tun, aber die wenigsten Menschen bringen diese Art von Kompetenz mit und werden so einer KI blindlings vertrauen. Sie vertrauen ja auch Nazi Politikern und haben da keine Probleme mit. Wozu recherchieren? Lieber nach Gefühlen urteilen!
Edit: habe das soeben nochmal gegoogelt und jetzt ist die Antwort eine andere, lol.
Ich bin das letzte Mal 2006 mit Gitarre geflogen, aber da war das noch Handgepäck 👴🏻. Sogar bei Ryanair, man höre und staune.
Vielleicht ist ChatGPT einfach richtig alt und erzählt von damals!
Edit: habe das soeben nochmal gegoogelt und jetzt ist die Antwort eine andere, lol.
Ich hatte den Effekt mit ChatGPT schonmal. Aus Neugier gefragt, wann Versailles die Hauptstadt von Frankreich war. Das erste mal hat es ausgespuckt, das sei noch nie die Hauptstadt gewesen, dann aber doch nachgeschoben "je nach Zeitraum kann aber variieren". Ich glaube, wir haben unterschiedliche Definitionen von "noch nie".
Beim zweiten Mal – Monate später, anderes Gerät – hat es mir dann geliefert, dass Ludwig XIV den ganzen Hofstaat nach Versailles geschleppt hatte und die Hauptstadt dann Versailles war, bis sie im Zuge der Revolution nach Paris zurückverlegt wurde.
Stimmt insofern, dass "Hauptstadt" als fester Regierungssitz ein Produkt institutioneller Verwaltungsapparate ist, während bei persönlichen Regierungen wie Königen der Regierungssitz mehr oder weniger dort war, wo auch immer sie sich eben befanden und Hof hielten. Daher sind beide Antworten halb richtig: Formell war die Hauptstadt immer Paris, aber die Regierung war eine Weile lang in Versailles, bevor eine fixe Hauptstadt wirklich von Bedeutung gewesen wäre.
Das hat es aber so nicht ausgeführt, weshalb beide Antworten eben nur halb richtig sind und die andere Hälfte unterschlagen.
Ach!
Waaaas? Dabei ist KI doch auf allen anderen Feldern absolut unfehlbar /s
und können Fakten von Meinungen oft nicht trennen
Da sind sie ja bei echten sogenannten "Journalisten" in bester Gesellschaft.
Ich denke auch das ist Teil des Erfolgsrezepts. Menschen bevorzugen Antworten die sie nicht herausfordern über Antworten die das tun, auch wenn die "besseren" Antworten faktisch falsch sind. Die meisten Chatbots neigen dazu, dem Nutzer zu erzählen was der Nutzer hören will, unabhängig vom Fakteninhalt des produzierten Texts. Das ist keine Überraschung, sondern die Funktion eines prädiktiven Textgenerators.
Wenn dir jemand was anderes erzählt, stehen die Chancen gut dass die Person Investments hat die davon abhängen dass du diesen Quatsch glaubst. Oder eben so ahnungslos ist wie die Investoren hoffen dass sie ist.
