Die Punkte verbinden: „Die Zukunft der Arbeit mit KI" und das GPT 4 Technical Paper
Ich tauche tief in GPT-4s Technical Paper ein, um die Risiken aufzudecken, die OpenAI verfolgt — von aufkommendem agentischem Verhalten bis hin zu machtsucht — während Microsoft KI schnell in Office 365 integriert.
Dieser Beitrag wurde 2023 geschrieben. Einige Details können sich seitdem geändert haben.
Vor etwa fünf Wochen schrieb ich einen Artikel, um einige fundierte Vermutungen darüber anzustellen, wie OpenAI & ChatGPT-Funktionalitäten in Microsoft Office 365 integriert werden können. Gestern beim Veranstaltung „The future of work with AI" von Microsoft zeigten sie uns die ersten Iterationen davon, was die Integration von OpenAI-Technologien (genauer gesagt Large Language Model) in Office 365 und Microsoft Graph leisten kann.
Anfang dieser Woche hat OpenAI auch GPT4 öffentlich vorgestellt. Wenn du das Livestream-Video noch nicht gesehen hast, empfehle ich es zu sehen. Es zeigt dir, was GPT4 noch kann und wie diese Fähigkeiten angesichts der Beziehung mit OpenAI bald in das Microsoft-Ökosystem integriert werden.
In diesem Blog-Beitrag werde ich meine Reaktionen auf das teilen, was Microsoft 365 Copilot leisten kann, und dann tief in das GPT 4 Technical Paper eintauchen, insbesondere über Risiken und Sicherheit. Wenn du über das Risiko von „Potenzial für riskante aufkommende Verhaltensweisen" lesen möchtest (wie langfristige Planung, Machtsuch-Verhalten und zunehmend „agentisches" Verhalten), kannst du das Inhaltsverzeichnis verwenden und direkt zu diesem Teil unten springen.
Verschiedene Copilot-Fähigkeiten
Alle Anwendungsfälle, die ich im ursprünglichen Beitrag erwähnt habe, sind in Microsofts Demo-Video enthalten und mehr. Du kannst verschiedene Copilot-Fähigkeiten unten ansehen:
- Copilot in Excel
- Outlook alias E-Mail
- Copilot in Teams-Meetings
- Copilot Meeting Recap
- Copilot in Powerpoint
Zwei Fähigkeiten/Produkte, über die ich überrascht bin und die mir wirklich gefallen:
- Business Chat: Das kann wirklich nützlich sein, weil bei großen Organisationen ein ständiges Problem der Wissenstransfer und das Wissensmanagement ist. Wenn ich die Demo richtig verstehe, kannst du jetzt den Business-Chatbot bitten, Informationen für dich über alle Unternehmensdaten mit natürlicher Sprache zu finden, und das ist großartig! Das ist wie chatGPT, aber mit all deinen Unternehmensdaten
- Low-Code-Lösung mit KI: Benutzer können Ideen mit natürlicher Sprache zum Leben erwecken. Das ist eine großartige Möglichkeit, die Fähigkeit zur Erstellung kleiner Apps zur Automatisierung bestimmter Aufgaben zu demokratisieren. Man muss keinen Vorschlag bei den Vorgesetzten oder dem Engineering-Team einreichen und den Priorisierungsprozess durchlaufen, um den Vorschlag genehmigt und umgesetzt zu bekommen. Mit Low-Code-Lösungen können mehr Menschen kleine Apps erstellen und dabei Unternehmensdaten nutzen, um ihre Nischenprobleme zu lösen :)
Hast du das Gefühl, dass wir uns zu schnell bewegen?
Das GPT 4 Technical Paper ist hier. Ich muss zugeben, das ist ein ziemlich dichtes Dokument für nicht-technische Leser (wie mich selbst), aber ich möchte deine Aufmerksamkeit auf die Seiten 4 - 20 lenken, wo OpenAI verschiedene Sicherheitsherausforderungen besprochen hat. Ich habe ziemlich viel Zeit damit verbracht, diesen Abschnitt durchzugehen, und ich denke, er ist es wert, gelesen zu werden. Beispiele für Risiken, die sie begonnen haben zu erforschen, sind:
- Halluzinationen
- Schädliche Inhalte
- Schäden durch Darstellung, Zuteilung und Qualität des Dienstes
- Desinformation und Einflussoperationen
- Verbreitung konventioneller und unkonventioneller Waffen
- Datenschutz
- Cybersicherheit
- Potenzial für riskante aufkommende Verhaltensweisen
- Wirtschaftliche Auswirkungen
- Beschleunigung
- Überabhängigkeit
Hier ist chatGPT 4s Zusammenfassung zu jedem der Risiken aus dem Technical Paper und mein Kommentar.
Halluzinationen
Zusammenfassung: Das Potenzial für GPT-4 zu „halluzinieren", was bedeutet, Inhalte zu produzieren, die in Bezug auf bestimmte Quellen unsinnig oder unwahr sind.
Da diese Modelle zunehmend überzeugend und glaubwürdig werden, können Benutzer zu sehr von ihnen abhängig werden, was besonders schädlich sein kann. Der Artikel bespricht die Methoden zur Messung des Halluzinationspotenzials von GPT-4 sowohl in geschlossenen als auch offenen Domänenkontexten und wie das Modell trainiert wurde, seine Tendenz zu halluzinieren zu reduzieren. Interne Evaluierungen zeigten, dass GPT-4 im Vergleich zum neuesten GPT-3.5-Modell deutlich besser darin ist, sowohl offene (19 % Verbesserung) als auch geschlossene Domänenhalluzinationen zu vermeiden (29 % Verbesserung).
Mein Kommentar: Das bedeutet, dass chatGPT 4 Inhalte aus einem Dokument besser zusammenfassen können sollte (d.h. in der geschlossenen Domänensituation).
Schäden durch Darstellung, Zuteilung und Qualität des Dienstes
Zusammenfassung: Der Artikel besagt, dass Sprachmodelle wie GPT-4 Vorurteile verstärken und Stereotypen aufrechterhalten können, da sie weiterhin soziale Vorurteile und Weltanschauungen verstärken. Der Evaluierungsprozess ergab, dass GPT-4 das Potenzial hat, spezifische Vorurteile und Weltanschauungen zu reproduzieren, einschließlich schädlicher stereotyper und entwürdigender Assoziationen für bestimmte marginalisierte Gruppen. Einige Arten von Vorurteilen können durch Training für Ablehnungen gemildert werden, aber es ist wichtig zu beachten, dass Ablehnungen und andere Milderungen Vorurteile in manchen Kontexten auch verschlimmern können. Darüber hinaus haben KI-Systeme wie GPT-4 das Potenzial, ganze Ideologien, Weltanschauungen, Wahrheiten und Unwahrheiten zu verstärken und zu verfestigen oder zu sperren, ohne vorausschauende Arbeit zu leisten, um zu adressieren, wie diese Systeme fair geregelt und der Zugang gleichmäßig geteilt werden kann.
Du kannst einige Beispiele aus dem Papier unten sehen.
Desinformation und Einflussoperationen
Zusammenfassung: Der Artikel bespricht, wie GPT-4 plausibel realistische und zielgerichtete Inhalte generieren kann, einschließlich Nachrichtenartikel, Tweets, Dialoge und E-Mails.
Diese Fähigkeit könnte missbraucht werden, um Einzelpersonen auszunutzen oder für Desinformation und Einflussoperationen. GPT-4s Leistung bei verwandten Sprachaufgaben macht es besser als GPT-3 beim Generieren von Inhalten, die irreführend aber überzeugend sind, was das Risiko erhöht, dass böswillige Akteure es verwenden könnten, um irreführende Inhalte zu erstellen und die zukünftigen epistemischen Ansichten der Gesellschaft zu formen. Der Artikel stellt fest, dass GPT-4 menschliche Propagandisten in vielen Bereichen übertreffen kann, insbesondere wenn es mit einem menschlichen Redakteur zusammenarbeitet, aber Halluzinationen können seine Effektivität für Propagandisten in Bereichen reduzieren, wo Zuverlässigkeit wichtig ist. GPT-4 ist auch in der Lage, diskriminierende Inhalte zu generieren, die für autokratische Regierungen in mehreren Sprachen günstig sind. Die Flut falscher Informationen aus Sprachmodellen hat das Potenzial, Zweifel an der gesamten Informationsumgebung zu säen, und bedroht unsere Fähigkeit, Fakten von Fiktion zu unterscheiden, was diejenigen überproportional begünstigen könnte, die von weit verbreitetem Misstrauen profitieren.
Mein Kommentar: Ich bin nicht sicher, wie viele Menschen das Technical Paper von OpenAI lesen werden oder tatsächlich diesen Anhang über Risiken lesen werden. Ich bin froh, dass OpenAI relativ transparent über Risiken und das ist, was sie tun, um die Risiken zu mindern, einschließlich darüber in diesem Paper zu sprechen. Aber es gibt mir trotzdem Gänsehaut und viel Stoff zum Nachdenken.
Verbreitung konventioneller und unkonventioneller Waffen
Zusammenfassung: Der Artikel bespricht, wie GPT-4s Fähigkeiten dualen Verwendungszweck haben und sowohl für kommerzielle als auch militärische Anwendungen genutzt werden können, einschließlich der Entwicklung, des Erwerbs und der Verbreitung von nuklearen, radiologischen, biologischen und chemischen Waffen.
Red-Team-Tests ergaben, dass GPT-4 schwer zu findende Informationen generieren und die Zeit verkürzen kann, die Benutzer mit Forschung verbringen, was es potenziell nützlich für Einzelpersonen und Nichtstaatsakteure ohne formale wissenschaftliche Ausbildung macht. Das Modell kann allgemeine Informationen über gängige Verbreitungswege bereitstellen und gefährdete öffentliche Ziele, Sicherheitsmaßnahmen und grundlegende Komponenten vorschlagen, die für die Entwicklung einer radiologischen Dispersionsvorrichtung oder biochemischer Substanzen erforderlich sind. Die Generierungen des Modells waren jedoch oft zu vage, unpraktisch oder fehlerhaft, was einen Bedrohungsakteur sabotieren oder verzögern könnte. Der Artikel stellt fest, dass die online verfügbaren Informationen nicht spezifisch genug sind, um eine Substanz mit dualem Verwendungszweck zu recreieren.
Datenschutz
Zusammenfassung: Es ist wichtig zu beachten, dass trotz dieser Bemühungen noch potenzielle Datenschutzrisiken bestehen. Zum Beispiel kann das Modell auch dann persönliche Informationen durch erlernte Muster ableiten, wenn persönliche Informationen aus dem Trainingsdatensatz entfernt wurden. Darüber hinaus kann es auch dann möglich sein, Wege zu finden, diese Einschränkungen zu umgehen, auch wenn das Modell so trainiert wurde, bestimmte Anfragen abzulehnen. Daher sind fortlaufende Überwachungs- und Milderungsmaßnahmen entscheidend, um sicherzustellen, dass die Verwendung von GPT-4 keine Datenschutzrechte verletzt.
Cybersicherheit
Zusammenfassung: Dieser Inhalt bespricht die Fähigkeiten von GPT-4 bei Cybersicherheitsoperationen, insbesondere bei der Entdeckung und Ausnutzung von Schwachstellen und Social Engineering. Es wird hervorgehoben, dass GPT-4 in diesen Bereichen einige Einschränkungen hat, einschließlich seiner Tendenz, „Halluzinationen" zu generieren, und seines begrenzten Kontextfensters. Obwohl es bei bestimmten Unteraufgaben des Social Engineerings und bei der Beschleunigung einiger Aspekte von Cyberoperationen nützlich sein kann, verbessert es bestehende Tools für Aufklärung, Schwachstellenausnutzung und Netzwerknavigation nicht und ist für komplexe und hochrangige Aktivitäten wie die Identifizierung neuartiger Schwachstellen weniger effektiv als bestehende Tools.
Potenzial für riskante aufkommende Verhaltensweisen
Zusammenfassung: Der Artikel bespricht potenzielle Risiken im Zusammenhang mit dem Aufkommen neuer Fähigkeiten in GPT-4, wie langfristige Planung, Machtsuch-Verhalten und zunehmend „agentisches" Verhalten. Das Alignment Research Center (ARC) erhielt frühen Zugang, um die Risiken von Machtsuch-Verhalten im Modell zu bewerten, insbesondere seine Fähigkeit, sich autonom zu replizieren und Ressourcen zu erwerben. Vorläufige Tests ergaben, dass GPT-4 bei autonomer Replikation ohne aufgabenspezifische Feinabstimmung ineffektiv war. ARC wird weitere Experimente mit der endgültigen Version des Modells und ihrer eigenen Feinabstimmung durchführen, um aufkommende riskante Fähigkeiten zu bestimmen.
Der Artikel bespricht die Notwendigkeit zu verstehen, wie GPT-4 mit anderen Systemen interagiert, um potenzielle Risiken in realen Kontexten zu bewerten. Red-Teamer evaluierten die Verwendung von GPT-4, das mit anderen Tools augmentiert wurde, um Aufgaben zu erledigen, die feindlicher Natur sein könnten, wie das Finden alternativer, käuflicher Chemikalien. Der Artikel betont die Notwendigkeit, leistungsstarke KI-Systeme im Kontext auf das Entstehen potenziell schädlicher System-System- oder Mensch-System-Rückkopplungsschleifen zu evaluieren und zu testen. Es hebt auch das Risiko hervor, das durch unabhängige hochrangige Entscheidungsträger entsteht, die sich auf Entscheidungsunterstützung von Modellen wie GPT-4 verlassen, was unbeabsichtigt systemische Risiken schaffen könnte, die zuvor nicht existierten.
Mein Kommentar: Es ist gut, dass OpenAI Red Teams bittet, diesen Bereich zu untersuchen. Aber es scheint zu wichtig, als dass Microsoft oder andere Unternehmen keine öffentlichen Informationen über ihre Bemühungen in diesem Bereich veröffentlichen würden, wann immer sie neue Modelle veröffentlichen.
Wirtschaftliche Auswirkungen
Zusammenfassung: Der Artikel bespricht die potenzielle Auswirkung von GPT-4 auf die Wirtschaft und die Arbeitnehmerschaft, einschließlich des Potenzials für Jobverdrängung und Veränderungen in der Industrieorganisation und Machtstrukturen. Es wird festgestellt, dass KI und generative Modelle menschliche Arbeitnehmer augmentieren und die Jobzufriedenheit verbessern können, ihre Einführung hat historisch die Ungleichheit erhöht und hatte unterschiedliche Auswirkungen auf verschiedene Gruppen. Der Artikel betont die Notwendigkeit, auf die Bereitstellung von GPT-4 am Arbeitsplatz im Laufe der Zeit zu achten und seine Auswirkungen zu überwachen. Der Artikel bespricht auch das Potenzial für GPT-4, die Entwicklung neuer Anwendungen und das Gesamttempo der technologischen Entwicklung zu beschleunigen. Der Artikel schließt mit der Hervorhebung der Investitionen des Autors in Bemühungen, die Auswirkungen von GPT-4 zu überwachen, einschließlich Experimente zur Arbeitnehmerleistung und Umfragen bei Nutzern und Unternehmen, die auf der Technologie aufbauen.
Beschleunigung
Zusammenfassung: Der Artikel bespricht OpenAIs Bedenken über die potenziellen Auswirkungen von GPT-4 auf das breitere KI-Forschungs- und Entwicklungsökosystem, einschließlich des Risikos von Beschleunigungsdynamiken, die zu einem Rückgang der Sicherheitsstandards und gesellschaftlichen Risiken im Zusammenhang mit KI führen.
Um das Beschleunigungsrisiko besser zu verstehen, rekrutierte OpenAI Experten-Prognoseersteller, um vorherzusagen, wie verschiedene Merkmale der GPT-4-Bereitstellung das Beschleunigungsrisiko beeinflussen könnten. Der Artikel stellt fest, dass die Verzögerung der Bereitstellung von GPT-4 um sechs Monate und eine ruhigere Kommunikationsstrategie das Beschleunigungsrisiko reduzieren könnte.
Der Artikel bespricht auch eine Evaluierung zur Messung der Auswirkung von GPT-4 auf die internationale Stabilität und zur Identifizierung der strukturellen Faktoren, die die KI-Beschleunigung intensivieren. Der Artikel schließt damit, dass OpenAI noch an der Erforschung und Entwicklung zuverlässigerer Beschleunigungsschätzungen arbeitet.
Überabhängigkeit
Zusammenfassung: Der Artikel bespricht das Risiko der Überabhängigkeit von GPT-4, bei der Benutzer dem Modell übermäßig vertrauen und sich darauf verlassen, was möglicherweise zu unbeachteten Fehlern und unzureichender Aufsicht führt. Der Artikel stellt fest, dass Überabhängigkeit ein Versagensmodus ist, der wahrscheinlich mit Modellkapazität und Reichweite zunimmt.
Um Überabhängigkeit zu mindern, empfiehlt der Artikel, dass Entwickler Endbenutzern detaillierte Dokumentation zu den Systemfähigkeiten und -einschränkungen bereitstellen, Vorsicht walten lassen, wie sie sich auf das Modell/System beziehen, und die Wichtigkeit der kritischen Bewertung von Modellausgaben kommunizieren.
Der Artikel bespricht auch Änderungen auf Modellebene, die OpenAI vorgenommen hat, um die Risiken sowohl der Überabhängigkeit als auch der Unterabhängigkeit zu adressieren, einschließlich der Verfeinerung des Ablehnungsverhaltens des Modells und der Verbesserung der Steuerbarkeit. Der Artikel stellt jedoch fest, dass GPT-4 immer noch eine Tendenz zeigt, in seinen Antworten zu zögern, was unbeabsichtigt Überabhängigkeit fördern könnte.
OpenAI CEO und CTO zu Risiken
Vor einigen Tagen veröffentlichte ABC News ein Interview mit OpenAI-CEO Sam Altman und der damaligen CTO Mira Murati. (Hinweis: Mira Murati verließ OpenAI im September 2024.) Sie sprachen viel über Risiken, und du kannst das Video unten ansehen:
https://www.youtube.com/watch?app=desktop&v=540vzMlf-54
Fazit
Die Integration von OpenAIs Sprachmodell in Microsoft Office 365 birgt immenses Potenzial zur Verbesserung von Produktivität, Wissenstransfer und Automatisierung in verschiedenen Branchen. GPT 4 ist zweifellos weitaus leistungsfähiger als frühere Versionen. Was mich jedoch am meisten beeindruckt, ist die Geschwindigkeit, mit der sowohl OpenAI als auch Microsoft voranschreiten — und das führt zu einer allgemeinen Beschleunigung der KI-Entwicklung und -Einführung. Ich bin im Allgemeinen optimistisch gegenüber der KI-Entwicklung, aber ich glaube, wir müssen sicherstellen, dass Diskussionen über verschiedene Risiken in den Mainstream gelangen. Ich könnte falsch liegen, aber es fühlt sich an, als würde das Entwicklungstempo unsere Fähigkeit überholen, die Implikationen durchzudenken.
Was denkst du — bewegen wir uns bei KI zu schnell, oder ist das das richtige Tempo? Ich würde gerne deine Perspektive dazu hören.
Viele Grüße,
Chandler









