OpenAI sagt, dass es ein Tool entwickelt, das es Content-Erstellern ermöglicht, sich vom KI-Training abzumelden
Bildnachweis: Justin Sullivan/Getty Images
OpenAI gibt an, ein Tool zu entwickeln, mit dem Entwickler besser steuern können, wie ihre Inhalte beim Training generativer KI verwendet werden.
Das Tool namens Media Manager ermöglicht es Erstellern und Inhaltseigentümern, ihre Werke für OpenAI zu identifizieren und zu entscheiden, wie sie diese Werke in die KI-Forschung und -Schulung einbeziehen oder davon ausschließen möchten.
Laut OpenAI soll das Tool bis 2025 eingeführt sein, da das Unternehmen mit „Erstellern, Eigentümern von Inhalten und Regulierungsbehörden“ an einem Standard arbeitet – möglicherweise über einen Lenkungsausschuss der Branche, dem es kürzlich beigetreten ist.
„Dies erfordert modernste maschinelle Lernforschung, um ein erstes Tool zu entwickeln, das uns dabei hilft, urheberrechtlich geschützte Texte, Bilder, Audio- und Videoinhalte aus mehreren Quellen zu identifizieren und die Vorlieben der Ersteller widerzuspiegeln“, schrieb OpenAI in einer Notiz. Blogeintrag. „Im Laufe der Zeit planen wir, zusätzliche Optionen und Funktionen anzubieten.“
Media Manager, welche Form es letztendlich auch annimmt, scheint die Antwort von OpenAI auf die wachsende Kritik an seinem Ansatz zur KI-Entwicklung zu sein, der stark auf dem Auslesen öffentlich verfügbarer Daten aus dem Web beruht. Kürzlich haben acht prominente US-Zeitungen, darunter die Chicago Tribune, OpenAI wegen Verletzung geistigen Eigentums im Zusammenhang mit der Nutzung generativer KI durch das Unternehmen verklagt und OpenAI beschuldigt, Artikel plagiiert zu haben, um generative KI-Modelle zu trainieren, die es dann ohne Kompensation – oder Quellenangabe – kommerzialisiert hat Beiträge.
Generative KI-Modelle, einschließlich OpenAI, bei denen es sich um Modelltypen handelt, die Texte, Bilder, Videos und mehr analysieren und generieren können, werden anhand einer großen Anzahl von Beispielen trainiert, die typischerweise aus öffentlichen Websites und Datensätzen stammen. OpenAI und andere Anbieter generativer KI argumentieren, dass Fair Use, der Rechtsgrundsatz, der die Verwendung urheberrechtlich geschützter Werke zur Erstellung sekundärer Werke erlaubt, solange sie transformativ sind, ihre Praktiken der Extraktion öffentlicher Daten und deren Verwendung für das Modelltraining schützt. Aber nicht alle sind damit einverstanden.
OpenAI tatsächlich erst kürzlich Argumentieren Ohne urheberrechtlich geschütztes Material wäre es unmöglich, nützliche KI-Modelle zu erstellen.
Doch um Kritiker zu besänftigen und sich gegen künftige Klagen zu verteidigen, hat OpenAI Schritte unternommen, um Content-Ersteller in der Mitte zu treffen.
OpenAI ermöglichte es Künstlern im vergangenen Jahr, ihre Werke aus den Datensätzen zu entfernen, die das Unternehmen zum Trainieren seiner Bilderzeugungsmodelle verwendet. Das Unternehmen ermöglicht es Websitebesitzern auch, über den robots.txt-Standard, der Websites für Web-Crawling-Bots anweist, anzugeben, ob der Inhalt ihrer Website gescrapt werden kann, um KI-Modelle zu trainieren. OpenAI schließt weiterhin Lizenzverträge mit großen Inhaltseigentümern ab, darunter … Nachricht Organisationen, Medienbibliotheken und Frage-und-Antwort-Sites wie Stack Overflow.
Einige Entwickler sagen jedoch, dass OpenAI nicht weit genug geht.
Künstler haben beschrieben Der Opt-out-Workflow von OpenAI für Bilder, der die Übermittlung einer einzelnen Kopie jedes Bildes zusammen mit einer Beschreibung zum Entfernen erfordert, ist umständlich. OpenAI soll zahlen Relativ wenig Um Inhalte zu lizenzieren. Wie OpenAI selbst am Dienstag in einem Blogbeitrag einräumt, sind die aktuellen Lösungen des Unternehmens nicht auf Szenarien ausgerichtet, in denen die Werke der Urheber angepasst, neu gemischt oder auf Plattformen neu veröffentlicht werden, die sie nicht kontrollieren.
Über OpenAI hinaus versuchen eine Reihe von Drittanbietern, eine globale Quelle und Opt-out-Tools für generative KI aufzubauen.
Das Startup Spawning AI, zu dessen Partnern Stability AI und Hugging Face gehören, bietet eine App, die die IP-Adressen von Bots identifiziert und verfolgt, um Scraping-Versuche zu verhindern, sowie eine Datenbank, in der Künstler ihre Arbeiten registrieren können, um Coaching durch Anbieter zu verbieten, die sich dafür entscheiden, Anfragen nachzukommen . Steg.AI und Imatag helfen Kreativen dabei, die Eigentumsrechte an ihren Bildern nachzuweisen, indem sie Wasserzeichen anbringen, die für das menschliche Auge nicht wahrnehmbar sind. Nightshade, ein Projekt der University of Chicago, arbeitet daran, Bilddaten zu „vergiften“, um sie für das Training von KI-Modellen unbrauchbar oder unbrauchbar zu machen.
„Lebenslanger Social-Media-Liebhaber. Fällt oft hin. Schöpfer. Leidenschaftlicher Feinschmecker. Entdecker. Typischer Unruhestifter.“