Das schmutzige Geheimnis von ChatGPT & Co.
Das schmutzige Geheimnis von ChatGPT & Co.
cio.de: Die von Microsoft und Google geplante Integration von generativer KI könnte nicht nur dramatische Auswirkungen auf die Websuche haben, sondern auch die Umwelt erheblich belasten.
Mit der Ankündigung, Open AIs ChatGPT-Technologie in Bing zu integrieren, hat Microsoft den fast schon verloren geglaubten Wettkampf im Suchmaschinenmarkt neu aufgenommen. Kurz vor der Vorstellung der Generative-AI-Lösung von Microsoft konterte Google, Branchenprimus mit aktuell gut 90 Prozent der weltweiten Suchanfragen, mit einem eigenen Konversations-Bot namens Bard.
Doch egal, wie der Wettkampf ausgeht, ein Verlierer steht bereits fest: die Umwelt. KI-gestützte Suchmaschinen erfordern einen drastischen Anstieg der Rechenleistung und sorgen damit auch für einen massiven Anstieg des Energiebedarfs von Technologieunternehmen.
Fünfmal mehr Rechenleistung pro Suche benötigt
Wie Experten gegenüber Wired erklärten, könnten die Einbeziehung von KI für Suchanfragen die von Unternehmen wie Google und Microsoft benötigte Rechenleistung um das bis zu Fünffache erhöhen. Und mit der Zunahme der Computer werden auch die Treibhausgasemissionen steigen.
„Die Indizierung und Durchsuchung von Internetinhalten erfordert bereits enorme Ressourcen, aber die Einbeziehung von KI erfordert eine andere Art von Feuerkraft“, erklärt Alan Woodward, Professor für Cybersicherheit an der University of Surrey in Großbritannien gegenüber Wired. „Sie erfordert sowohl Rechenleistung als auch Speicherplatz und eine effiziente Suche. Jedes Mal, wenn sich die Online-Verarbeitung weiterentwickelt, steigt der Energie- und Kühlungsbedarf großer Rechenzentren erheblich. Ich denke, dass dies ein solcher Schritt sein könnte“.
Lesen Sie auch:
Zwar haben weder OpenAI noch Google Angaben zu den Rechenkosten ihrer Produkte gemacht, aber Forscher schätzen, dass das Training von GPT-3, auf dem ChatGPT teilweise basiert, 1.287 MWh verbraucht und zu einem Ausstoß von mehr als 550 Tonnen Kohlendioxid-Äquivalenten geführt hat – so viel wie eine Person, die 550 Hin- und Rückflüge zwischen New York und San Francisco macht.
„Es ist nicht so schlimm, aber man muss bedenken, dass man das Modell nicht nur trainieren, sondern auch ausführen und Millionen von Nutzern bedienen muss“, sagt Gómez-Rodríguez. Informatiker an der Universität von Coruña in Spanien. Es besteht auch ein großer Unterschied zwischen der Nutzung von ChatGPT – das nach Schätzungen der Investmentbank UBS 13 Millionen Nutzer pro Tag hat – als eigenständiges Produkt und der Integration in Bing, das täglich eine halbe Milliarde Suchanfragen verarbeitet.
So geht dem Bericht zufolge Martin Bouchard, Mitbegründer des kanadischen Rechenzentrumsunternehmens QScale, davon aus, dass die Unterstützung der Suche durch generative KI, so wie sie Microsoft und Google planen „mindestens vier- oder fünfmal mehr Rechenleistung pro Suchprozess“ erfordern wird. Außerdem reicht das Wissen von ChatGPT derzeit nur bis Ende 2021, um den Rechenaufwand zu verringern. Um den Anforderungen der Suchmaschinennutzer gerecht zu werden, werde sich das ändern müssen. „Wenn sie das Modell häufig neu trainieren und weitere Parameter und so weiter hinzufügen, ist das ein ganz anderes Ausmaß“, so Bouchard… weiterlesen