„Scheren“ des neuseeländischen Wissens
Mar 06, 2023Der Job-Shop hilft bei der Instandhaltung der Datenautobahn
Mar 08, 2023Wie sich die digitale Desktop-Fertigung auf das abrasive Wasserstrahlschneiden auswirkt
Mar 10, 2023Dynamik und Einblicke in den Markt für extrudierte Snack-Lebensmittel in Indien
Mar 12, 2023Metallbauer aus Pennsylvania achtet auf Automatisierung
Mar 14, 2023ChatGPT hat enorme versteckte Kosten, die die KI-Entwicklung drosseln könnten
KI-Chatbots haben ein Problem: Sie verlieren bei jedem Chat Geld.
Die enormen Kosten für den Betrieb der heutigen großen Sprachmodelle, die Tools wie ChatGPT und Bard zugrunde liegen, schränken ihre Qualität ein und drohen den von ihnen ausgelösten globalen KI-Boom zu drosseln.
Ihre Kosten und die begrenzte Verfügbarkeit der benötigten Computerchips schränken auch die Unternehmen ein, die sich den Betrieb leisten können, und setzen selbst die reichsten Unternehmen der Welt unter Druck, Chatbots schneller in Geldverdiener zu verwandeln, als sie vielleicht dazu bereit sind.
„Die derzeit eingesetzten Modelle sind, so beeindruckend sie auch erscheinen mögen, in Wirklichkeit nicht die besten verfügbaren Modelle“, sagte Tom Goldstein, Informatikprofessor an der University of Maryland. „Infolgedessen haben die Modelle, die Sie sehen, viele Schwächen“, die vermeidbar wären, wenn die Kosten keine Rolle spielten – etwa die Neigung, voreingenommene Ergebnisse oder offensichtliche Unwahrheiten auszuspucken.
Was passiert, wenn ChatGPT über echte Menschen lügt?
Die Technologiegiganten, die ihre Zukunft auf KI setzen, diskutieren selten über die Kosten der Technologie. OpenAI (der Hersteller von ChatGPT), Microsoft und Google lehnten alle eine Stellungnahme ab. Experten sagen jedoch, dass dies das eklatanteste Hindernis für die Vision von Big Tech ist, dass sich generative KI in allen Branchen durchsetzt, die Zahl der Mitarbeiter reduziert und die Effizienz steigert.
Aufgrund der intensiven Rechenleistung, die KI erfordert, hat OpenAI sein leistungsstarkes neues Sprachmodell GPT-4 von der kostenlosen Version von ChatGPT zurückgehalten, auf der noch ein schwächeres GPT-3.5-Modell läuft. Der zugrunde liegende Datensatz von ChatGPT wurde zuletzt im September 2021 aktualisiert, sodass er für die Recherche oder Diskussion aktueller Ereignisse unbrauchbar ist. Und selbst diejenigen, die 20 US-Dollar pro Monat für GPT-4 zahlen, können alle drei Stunden nur 25 Nachrichten senden, weil der Betrieb so teuer ist. (Die Reaktion ist auch viel langsamer.)
Diese Kosten könnten auch ein Grund dafür sein, dass Google noch keinen KI-Chatbot in seine Flaggschiff-Suchmaschine integriert hat, die täglich Milliarden von Suchanfragen bearbeitet. Als Google im März seinen Bard-Chatbot veröffentlichte, verzichtete das Unternehmen auf die Verwendung seines größten Sprachmodells. Dylan Patel, Chefanalyst beim Halbleiterforschungsunternehmen SemiAnalysis, schätzte, dass ein einzelner Chat mit ChatGPT bis zu 1.000 Mal so viel kosten könnte wie eine einfache Google-Suche.
In einem aktuellen Bericht über künstliche Intelligenz bezeichnete die Biden-Regierung die Rechenkosten generativer KI als nationales Problem. Das Weiße Haus schrieb, dass die Technologie voraussichtlich „den Rechenaufwand und die damit verbundenen Umweltauswirkungen drastisch erhöhen wird“ und dass es „dringend notwendig“ sei, nachhaltigere Systeme zu entwerfen.
Noch mehr als andere Formen des maschinellen Lernens erfordert generative KI schwindelerregende Mengen an Rechenleistung und spezielle Computerchips, sogenannte GPUs, die sich nur die reichsten Unternehmen leisten können. Der sich verschärfende Kampf um den Zugang zu diesen Chips hat dazu beigetragen, dass ihre führenden Anbieter zu eigenständigen Technologiegiganten geworden sind und ihnen den Schlüssel zu dem gegeben haben, was zum wertvollsten Kapital der Technologiebranche geworden ist.
Warum Nvidia plötzlich eines der wertvollsten Unternehmen der Welt ist
Silicon Valley dominierte die Internetwirtschaft unter anderem dadurch, dass es der Welt Dienste wie Online-Suche, E-Mail und soziale Medien kostenlos anbot, wobei es zunächst Geld verlor, aber schließlich mit personalisierter Werbung hohe Gewinne erzielte. Und Anzeigen kommen wahrscheinlich zu KI-Chatbots. Doch Analysten sagen, dass Werbung allein wahrscheinlich nicht ausreichen wird, um hochmoderne KI-Tools in absehbarer Zeit profitabel zu machen.
In der Zwischenzeit müssen die Unternehmen, die KI-Modelle für den Verbrauchergebrauch anbieten, ihren Wunsch, Marktanteile zu gewinnen, mit den finanziellen Verlusten in Einklang bringen, die sie erleiden.
Die Suche nach zuverlässigerer KI dürfte auch vor allem den Chipherstellern und Cloud-Computing-Giganten Gewinne bescheren, die bereits einen Großteil des digitalen Raums kontrollieren – zusammen mit den Chipherstellern, deren Hardware sie zum Betrieb der Modelle benötigen.
Es ist kein Zufall, dass die Unternehmen, die die führenden KI-Sprachmodelle entwickeln, entweder zu den größten Cloud-Computing-Anbietern gehören, wie etwa Google und Microsoft, oder enge Partnerschaften mit ihnen unterhalten, wie es OpenAI mit Microsoft tut. Unternehmen, die die KI-Tools dieser Firmen kaufen, sind sich nicht bewusst, dass sie an einen stark subventionierten Dienst gebunden sind, der viel mehr kostet, als sie derzeit bezahlen, sagte Clem Delangue, CEO von Hugging Face, einem Open-Source-KI-Unternehmen.
Sam Altman, CEO von OpenAI, erkannte das Problem indirekt bei einer Anhörung im Senat letzten Monat an, als Senator Jon Ossoff (D-Ga.) warnte, dass der Kongress „sehr hart vorgehen wird, wenn OpenAI versuchen würde, ChatGPT auf eine Weise süchtig zu machen, die Kindern schadet“. " darauf. Altman sagte, Ossoff brauche sich keine Sorgen zu machen: „Wir versuchen, Systeme zu entwickeln, die nicht auf Engagement maximieren. Tatsächlich sind wir so knapp bei GPUs, dass je weniger Leute unsere Produkte nutzen, desto besser.“
Der Aufwand für KI-Sprachmodelle beginnt bei deren Entwicklung und Training, was gigantische Mengen an Daten und Software erfordert, um Muster in der Sprache zu erkennen. KI-Unternehmen stellen in der Regel auch Spitzenforscher ein, deren Gehälter mit denen von Profisportlern mithalten können. Dies stellt ein anfängliches Hindernis für jedes Unternehmen dar, das ein eigenes Modell aufbauen möchte, obwohl einige gut finanzierte Start-ups erfolgreich waren – darunter Anthropic AI, das OpenAI-Absolventen mit finanzieller Unterstützung von Google gründeten.
Anschließend wird jede Anfrage an einen Chatbot wie ChatGPT, Bing von Microsoft oder Claude von Anthropic an Rechenzentren weitergeleitet, wo Supercomputer die Modelle verarbeiten und zahlreiche Hochgeschwindigkeitsberechnungen gleichzeitig durchführen – zunächst interpretieren sie die Eingabeaufforderung des Benutzers und arbeiten dann an der Vorhersage plausibelste Antwort, jeweils ein „Token“ oder eine Vier-Buchstaben-Sequenz.
Diese Art von Rechenleistung erfordert GPUs oder Grafikprozessoren, die ursprünglich für Videospiele entwickelt wurden, sich aber als die einzigen Chips erwiesen, die so schwere Computeraufgaben wie große Sprachmodelle bewältigen konnten. Derzeit verkauft nur ein Unternehmen, Nvidia, die besten davon und verlangt dafür Zehntausende Dollar. Nvidias Bewertung schoss aufgrund der erwarteten Umsätze kürzlich auf eine Billion US-Dollar. Der Wert des in Taiwan ansässigen Unternehmens TSMC, das viele dieser Chips herstellt, ist ebenfalls stark gestiegen.
„GPUs sind derzeit erheblich schwieriger zu bekommen als Medikamente“, sagte Elon Musk, der kürzlich etwa 10.000 GPUs für sein eigenes KI-Start-up gekauft hatte, auf einem Gipfeltreffen des Wall Street Journal am 23. Mai.
Diese Rechenanforderungen tragen auch dazu bei, zu erklären, warum OpenAI nicht mehr die gemeinnützige Organisation ist, als die es gegründet wurde.
Das Unternehmen startete 2015 mit der erklärten Mission, KI „auf eine Art und Weise zu entwickeln, die der gesamten Menschheit am ehesten zugutekommt, ohne durch die Notwendigkeit, finanzielle Erträge zu erwirtschaften“, eingeschränkt zu werden. Bis 2019 ist das Unternehmen auf ein gewinnorientiertes Modell umgestiegen, um Investoren anzulocken , darunter Microsoft, das 1 Milliarde US-Dollar investierte und zum exklusiven Computeranbieter von OpenAI wurde. (Microsoft hat seitdem weitere 10 Milliarden US-Dollar investiert und die Technologie von OpenAI in Bing, Windows und andere Produkte integriert.)
Wie viel genau der Betrieb von Chatbots wie ChatGPT kostet, ist ein schwankendes Ziel, da Unternehmen daran arbeiten, sie effizienter zu machen.
Im Dezember, nicht lange nach seiner Einführung, schätzte Altman die Kosten von ChatGPT auf „wahrscheinlich einstellige Cent pro Chat“. Das klingt vielleicht nicht viel, bis man es mit mehr als 10 Millionen Nutzern pro Tag multipliziert, wie Analysten schätzen. Im Februar berechnete SemiAnalysis, dass ChatGPT OpenAI allein an Rechenkosten etwa 700.000 US-Dollar pro Tag kostete, basierend auf der Verarbeitung, die für die Ausführung von GPT-3.5, dem damaligen Standardmodell, erforderlich war.
Multipliziert man diese Rechenkosten mit den 100 Millionen Menschen pro Tag, die die Suchmaschine Bing von Microsoft nutzen, oder mit den mehr als einer Milliarde, die Berichten zufolge Google nutzen, kann man verstehen, warum die Technologieriesen zögern, die besten KI-Modelle der Öffentlichkeit zugänglich zu machen .
Der neue Bing sagte unserem Reporter, er könne „Dinge fühlen oder denken“
„Dies ist keine nachhaltige Gleichung für die Demokratisierung oder breite Verfügbarkeit generativer KI, der Wirtschaft oder der Umwelt“, sagte Sid Sheth, Gründer und CEO von d-Matrix, einem Start-up, das an der Entwicklung effizienterer Chips für KI arbeitet.
Google sagte in seiner Februar-Ankündigung von Bard, dass es zunächst auf einer „leichten“ Version des LaMDA-Sprachmodells des Unternehmens laufen werde, da es „deutlich weniger Rechenleistung benötige, was uns die Skalierung für mehr Benutzer ermöglicht“. Mit anderen Worten: Selbst ein so wohlhabendes Unternehmen wie Google war nicht bereit, die Kosten dafür zu tragen, seine leistungsfähigste KI-Technologie in einen kostenlosen Chatbot zu stecken.
Perspektive: Was Googles neue KI richtig, falsch und seltsam macht.
Die Kostensenkung forderte ihren Tribut: Bard stolperte bei seiner Einführungsdemonstration über grundlegende Fakten und verlor 100 Milliarden US-Dollar vom Wert der Google-Aktien. Bing seinerseits geriet schon früh aus dem Ruder, was Microsoft dazu veranlasste, sowohl seine Persönlichkeit als auch die Anzahl der Fragen, die Benutzer ihm in einem bestimmten Gespräch stellen konnten, einzuschränken.
Solche Fehler, manchmal auch „Halluzinationen“ genannt, sind bei KI-Sprachmodellen zu einem großen Problem geworden, da sich sowohl Einzelpersonen als auch Unternehmen zunehmend auf sie verlassen. Experten sagen, dass sie eine Funktion des Grunddesigns der Modelle sind: Sie sind darauf ausgelegt, wahrscheinliche Wortfolgen und keine wahren Aussagen zu generieren.
Ein weiterer Google-Chatbot namens Sparrow wurde von der DeepMind-Tochter des Unternehmens entwickelt, um das Internet zu durchsuchen und seine Quellen zu zitieren, mit dem Ziel, Unwahrheiten zu reduzieren. Aber Google hat das bisher noch nicht veröffentlicht.
ChatGPT „halluziniert“. Einige Forscher befürchten, dass es nicht reparierbar ist.
Unterdessen konkurrieren alle großen Player darum, KI-Sprachmodelle billiger zu machen.
Das Ausführen einer Abfrage mit dem neuen, leichten GPT-3.5 Turbo-Modell von OpenAI kostet weniger als ein Zehntel so viel wie das Spitzenmodell GPT-4. Google stellt seine eigenen KI-Chips her, von denen es behauptet, sie seien effizienter als die von Nvidia, ebenso wie Start-ups wie d-Matrix. Und zahlreiche Start-ups bauen auf Open-Source-Sprachmodellen wie LLaMA von Meta auf, sodass sie weder OpenAI noch Google bezahlen müssen, um ihre Modelle zu nutzen – auch wenn diese Modelle noch nicht so gut funktionieren und möglicherweise keine Leitplanken haben Missbrauch zu verhindern.
Der Drang nach kleineren, günstigeren Modellen markiert einen plötzlichen Umschwung für die Branche, sagte Goldstein aus Maryland.
„Wir haben die letzten vier Jahre damit verbracht, die größtmöglichen Modelle zu bauen“, sagte er. Damals bestand das Ziel jedoch darin, Forschungsarbeiten zu veröffentlichen und nicht darin, KI-Chatbots der Öffentlichkeit zugänglich zu machen. „Jetzt, erst in den letzten Monaten, kam es in der Community zu einer völligen Kehrtwende, und plötzlich versucht jeder, das kleinstmögliche Modell zu bauen, um die Kosten unter Kontrolle zu halten.“
Für Verbraucher könnte dies bedeuten, dass die Tage des uneingeschränkten Zugriffs auf leistungsstarke, universelle KI-Modelle gezählt sind.
Microsoft experimentiert bereits damit, Werbung in seine KI-gestützten Bing-Ergebnisse einzubauen. Bei der Anhörung im Senat würde Altman von OpenAI nicht ausschließen, dasselbe zu tun, obwohl er sagte, dass er ein kostenpflichtiges Abonnementmodell bevorzuge.
Beide Unternehmen geben an, dass sie zuversichtlich seien, dass sich die Wirtschaftslage letztendlich positiv entwickeln werde. Altman sagte im Februar gegenüber dem Tech-Blog Stratechery: „Hier steckt so viel Wert, dass es für mich unvorstellbar ist, dass wir nicht herausfinden können, wie wir die Registrierkasse darauf klingeln lassen.“
Kritiker weisen jedoch darauf hin, dass generative KI auch mit Kosten für die Gesellschaft verbunden ist.
„All diese Verarbeitung hat Auswirkungen auf die Treibhausgasemissionen“, sagte Bhaskar Chakravorti, Dekan für Global Business an der Fletcher School der Tufts University. Das Rechnen erfordert Energie, die für andere Zwecke genutzt werden könnte – einschließlich anderer Rechenaufgaben, die weniger im Trend liegen als KI-Sprachmodelle. Das „könnte sogar die Entwicklung und Anwendung von KI für andere, sinnvollere Zwecke verlangsamen, etwa im Gesundheitswesen, in der Arzneimittelentwicklung, bei der Krebserkennung usw.“, sagte Chakravorti.
Basierend auf Schätzungen der Nutzung und des Rechenbedarfs von ChatGPT schätzte der Datenwissenschaftler Kasper Groes Albin Ludvigsen, dass es im Januar möglicherweise so viel Strom verbraucht hat wie 175.000 Menschen – das Äquivalent einer mittelgroßen Stadt.
Vorerst seien die Technologiegiganten bereit, Geld zu verlieren, um mit ihren KI-Chatbots Marktanteile zu gewinnen, sagte Goldstein. Aber wenn sie es nicht schaffen, sie profitabel zu machen? „Irgendwann sind Sie am Ende der Hype-Kurve angelangt, und das Einzige, worauf Ihre Investoren an diesem Punkt achten werden, ist Ihr Endergebnis.“
Dennoch prognostizierte Goldstein, dass es für viele Menschen und Unternehmen schwierig sein wird, generativen KI-Tools zu widerstehen, trotz all ihrer Mängel. „Auch wenn es teuer ist“, sagte er, „ist es immer noch weitaus günstiger als menschliche Arbeitskraft.“
Nitasha Tiku hat zu diesem Bericht beigetragen.