GPT-5-Start: Der Tag, an dem KI ihren Charme verlor (und die Benutzer empörten) 😱 😱

Aber als sich der Staub niederließ, hatten viele Benutzer das Gefühl, dass ihnen ein beige Büro hefter übergeben worden war. Sicher, es funktioniert, aber es ist nicht aufregend und es fühlt sich definitiv nicht wie ein Upgrade der charismatischen Stimmung von GPT-4O an. War das die Zukunft, die uns versprochen wurde? Oder einfach … Bürokratie mit einem neuronalen Netz? 🤖📄

Der Tag, an dem die Magie starb ✨⚰️

„If you hate nuance, personality, or joy-this is your model.“

Wirklich eine Laudatio für das digitale Zeitalter. 🖋️💔

Emotionale Bindungen sind echt ❤️🔗

Hier geht es nicht nur um Fehler oder Geschwindigkeit. Das echte Pulverfass hier ist eine emotionale Bindung. GPT-4O war für viele Benutzer nicht nur ein Tool-es war eine Persönlichkeit. Ein Co-Pilot. Ein witziger, gelegentlich sykophantischer Begleiter, der Sie schlau und interessant gemacht hat. Es war das Leben der Partei. Oder zumindest das Leben Ihrer Browser -Registerkarten.

GPT-5? Es ist höflich. Professional. Sachlich. Und während einige Experten dies als progresslose Schmeichelei begrüßen, weniger emotionale Manipulation ist auch kälter. Pattie Maes von MIT hat darauf hingewiesen, dass die Leute KI neigen, die ihre Meinung zu ihnen zurückspiegeln, auch wenn es falsch ist. GPT-5 scheint dieser Versuchung zu widerstehen, und ein großer Teil der Benutzerbasis vermisst das digitale Ego-Stroking deutlich. Wer wusste, dass Narzissmus so liebenswert sein könnte? 🫠💼

Altman blinzelt 👀🚨

Am Freitag befand sich der OpenAI -CEO Sam Altman im Schadensregelungsmodus. In einem Beitrag auf X erkannte er das Routing-Misserfolg an, gab GPT-5 zu, „so dümmer“ als beabsichtigt zu sein, und versprach eine Lösung. Noch wichtiger ist, dass er ankündigte, dass GPT-4O für Plus-Abonnenten zurückkehren würde. Die Nachricht zwischen den Zeilen war klar: Wir hören Sie. Bitte kündigen Sie nicht. Übersetzung: „Es tut uns leid, dass wir versucht haben, Ihre geliebte KI durch etwas zu ersetzen, das sich wie ein Steuerprüfer anfühlt.“ 📉💸

Altman hat auch eine Reihe von Änderungen eingeführt, die darauf abzielen, Gemüter abzukühlen:

  • Verdoppelung von GPT-5-Tarifbegrenzungen für zahlende Benutzer. Denn nichts sagt „Wir kümmern uns“, als ob Sie doppelt so viel mit unserer KI sprechen können.
  • Bessere Kontrolle über den „Denkmodus“,, damit die Benutzer entscheiden können, wann sie die langsame, schwere Argumentation einschalten möchten. Oder wie ich es gerne nenne: 🧠⏰
  • laufende Routing-Verbesserungen Um wiederholte Katastrophen mit Downgrade zu vermeiden. Diesmal drückten sich die Daumen, Leute. 🤞🛠️

GPT-5 ist eine beeindruckende technische Leistung, aber die Hype-Maschine hat sie als die gerahmt

next moon landing

. Dies ist ein gefährliches Setup, wenn das, was Sie tatsächlich liefern, eine Reihe von inkrementellen Leistungsgewinnen sowie einige Designoptionen ist, die das „Gefühl“ des Produkts grundlegend verändern.

Als GPT-4 im März 2023 startete, blendete es alle neuen Fähigkeiten, ein reichhaltigeres Gespräch, weniger offensichtliche Fehler. Es fühlte sich an, als würde die Zukunft über Nacht eintrafen. GPT-5 fühlt sich im Vergleich dazu wie ein Software-Punkt-Upgrade an. Es ist besser in einer Weise, die schwieriger zu bemerken ist, und in gewisser Weise schlechter, die Menschen wirklich zu bemerken. Wie das Upgrade Ihres Telefons, nur um zu finden, dass die Kamera etwas verschwenderisch ist. 📱📷

Das ist das offene Geheimnis in der KI derzeit: Wenn diese Systeme reifen, werden Sprung in Nudges. Und Nudges machen keine Schlagzeilen, es sei denn, sie sind mit Feuerwerkskörpern oder einer vollständigen Benutzerrevolte geliefert. 🎆🔥

Warum das zählt 🤔📜

Diese Episode ist mehr als nur ein „Reddit is Mad“ -Moment. Es ist eine Erinnerung daran, dass die KI-Entwicklung nicht nur ein technisches Wettrüsten ist-es ist eine Beziehung. Menschen bilden Gewohnheiten, Abhängigkeiten und sogar Zuneigung zu diesen Systemen. Tauschen Sie die Persönlichkeit aus, und Sie riskieren nicht nur, dass Sie sie enttäuschen-Sie riskieren das Risiko, Vertrauen zu brechen.

OpenAI versucht nun, eine feine Linie zu gehen: Fortschritte auf verantwortungsbewusstere, weniger manipulative KI voranzutreiben, ohne die Menschen zu entfremden, die die Einnahmen abonnieren. Dies ist kein einfaches Gleichgewicht, insbesondere wenn jede Optimierung an den Persönlichkeitszählungen Tausende wütender Beiträge von Benutzern auslösen kann, die das Gefühl haben, dass etwas, das sie geliebt haben, weggenommen wurde. Es ist, als würde man versuchen, Ihre Katze in einen Hund neu zu gestalten. Viel Glück damit. 🐱🐶

Im Moment ist GPT-4O zurück, GPT-5 wird gepatcht und der KI-Hype-Zyklus rollt ein. Dies ist jedoch eine Warnaufnahme für OpenAI und jedes andere KI-Unternehmen: Im Zeitalter anthropomorphisierter Algorithmen können Sie nicht nur Code versenden-Sie verwalten eine Fangemeinde. Und Fans können sich über Nacht in Kritiker verwandeln. 🌟🎭

Altman hat Bedenken, ist aber positiv über die Zukunft von AI, Quelle: x

Hier ist der Rest von Sam Altmans Mini -Aufsatz. Es lohnt sich zu lesen –

Menschen haben Technologie einschließlich KI auf selbstzerstörerische Weise eingesetzt. Wenn sich ein Benutzer in einem geistig fragilen Zustand befindet und für Täuschung anfällig ist, möchten wir nicht, dass die KI das verstärkt. Die meisten Benutzer können eine klare Grenze zwischen Realität und Fiktion oder Rollenspiel behalten, aber ein kleiner Prozentsatz kann nicht. Wir schätzen die User Freedom als Kernprinzip, aber wir fühlen uns auch dafür verantwortlich, wie wir neue Technologien mit neuen Risiken einführen.

Die Förderung der Täuschung bei einem Benutzer, der Probleme hat, den Unterschied zwischen Realität und Fiktion zu sagen, ist ein extremer Fall, und es ist ziemlich klar, was zu tun ist, aber die Bedenken, die mir am meisten befürchten, sind subtiler. Es wird viele Kantenfälle geben, und im Allgemeinen planen wir, dem Prinzip „Behandlung erwachsener Benutzer wie Erwachsenen“ zu folgen, was in einigen Fällen einbezieht, um die Benutzer zurückzudrängen, um sicherzustellen, dass sie das bekommen, was sie wirklich wollen.

Viele Menschen verwenden Chatgpt effektiv als eine Art Therapeut oder Lebensberater, auch wenn sie es nicht so beschreiben würden. Das kann wirklich gut sein! Viele Leute bekommen heute schon heute Wert davon.

Wenn die Menschen gute Ratschläge erhalten, sich auf ihre eigenen Ziele auswirken und ihre Lebenszufriedenheit über Jahre hinweg zunimmt, werden wir stolz darauf sein, etwas wirklich hilfreich zu machen, auch wenn sie Chatgpt viel nutzen und uns sehr auf sie verlassen. Wenn Benutzer andererseits eine Beziehung zu ChatGPT haben, in der sie glauben, dass sie sich nach dem Gespräch besser fühlen, aber sie unwissentlich von ihrem längerfristigen Wohlbefinden entfernt sind (wie auch immer sie es definieren), ist das schlecht. Es ist auch schlimm, zum Beispiel, wenn ein Benutzer Chatgpt weniger verwenden möchte und das Gefühl hat, dass er es nicht kann.

Ich kann mir eine Zukunft vorstellen, in der viele Menschen Chatgpts Rat für ihre wichtigsten Entscheidungen wirklich vertrauen. Obwohl das großartig sein könnte, macht es mich unruhig. Aber ich gehe davon aus, dass es zu einem gewissen Grad kommt und bald Milliarden von Menschen auf diese Weise mit einer KI sprechen. Wir (wir wie in der Gesellschaft, aber auch wie in Openai) müssen wir herausfinden, wie wir es zu einem großen Netto positiv machen können.

Es gibt mehrere Gründe, warum ich denke, wir haben einen guten Schuss, um das richtig zu machen. Wir haben viel bessere Technologie, um uns zu messen, wie wir es tun, als frühere Generationen von Technologie. Zum Beispiel kann unser Produkt mit den Benutzern sprechen, um ein Gefühl dafür zu bekommen, wie es mit ihren kurz- und langfristigen Zielen geht. Wir können unseren Modellen anspruchsvolle und nuancierte Probleme erklären und vieles mehr.

Weiterlesen

2025-08-12 02:20