Der CEO von OpenAI hat über den Energieverbrauch der Künstlichen Intelligenz und deren Rechenzentren nachgedacht.
In einem seiner neuesten Blogbeiträge hat Sam Altman über einen der weniger sichtbaren, aber ebenso relevanten Aspekte der Künstlichen Intelligenz nachgedacht: deren Energieverbrauch. Haben Sie sich jemals über die Umweltauswirkungen Ihrer Suchanfragen bei ChatGPT oder bei anderen KI-Tools gewundert?
Der Experte hat sein Interesse an den Energiekosten dieser Technologie zum Ausdruck gebracht, wobei die Nachfrage in den kommenden Jahren weiter steigen wird. Bewusst, dass viele Nutzer Fragen zur verborgenen Seite der Künstlichen Intelligenz haben, hat er den tatsächlichen Verbrauch bei ihrer Nutzung näher beleuchtet.
Der Energie- und Wasserverbrauch jeder Anfrage an ChatGPT
Doch das ist nicht alles; die KI benötigt auch Wasser zur Kühlung ihrer Rechenzentren. Pro Anfrage „werden etwa 0,00032176 Liter Wasser verbraucht, was ungefähr einem fünfzehnten Teil eines Teelöffels entspricht“, hebt Altman hervor.
Auf der Suche nach nachhaltigen Lösungen
Um das Ausmaß des Problems zu verstehen, erklärt Sam Altman, dass die gesamte Anzahl der täglichen Anfragen, die ChatGPT erhält, berücksichtigt werden muss. Diese beträgt derzeit etwa 2,5 Milliarden Anfragen pro Tag, ohne die restlichen Chatbots und Künstlichen Intelligenz-Tools zu berücksichtigen, die weltweit im Einsatz sind.
Auf diese Weise hat der Schöpfer von ChatGPT versucht, ein besseres Verständnis für die Umweltauswirkungen dieser technologischen Werkzeuge zu schaffen. In diesem Kontext hat Sam Altman bereits erklärt, dass eines seiner Ziele darin besteht, eine Künstliche Intelligenz zu entwickeln, die ihren eigenen Energieverbrauch optimieren kann und somit ihre Energieeffizienz verbessert.











