Uran Forum
Spannend wird es nächsten Montag , s. hierzu J. Quakes gestern:
"Spot U3O8 market participants remain in a holding pattern awaiting resolution of DoE vs Commerce dispute over granting of US Russian #Uranium waivers as TradeTech indicates Russia's Tenex US LEU orders tear-up deadline is now 15 July".
"...... SUMMARY OF URANIUM TAX HIKE IMPLICATIONS
In our view the new MET announced yesterday will a) increase Kazakhstan-origin
uranium production costs thereby driving higher spot and term uranium prices,
b) disincentivize Kazakhstan uranium production growth and c) cause further bi-
furcation in the market whereby U.S., Canada, and Australia-origin uranium
receives a greater premium. ....."
https://cantorcanadaresearch.com/wp-content/...iumMacroNote071124.pdf
Hatte zwei Tage nach Exdividenddatum verkauft und war etwas nervös.
Atuell keine guten News bei Kazatomprom. Hatte die durchweg drei Jahre im Depot und bin nun auf Goldminen umgeschwenkt.
Man benötigt Kernenergie für den Energiehunger der KI und Rechenzentren.
Dafür gehen sogar alte AKW wieder ans Netz
Die USA könnten an fehlender Energy kaputt gehen und den "Krieg" gegen China verlieren, wenn nicht ganz, ganz schnell ganz, ganz viel zusätzliche Energie bereitgestellt werden kann.
AI ( oder KI auf deutsch ) hängt an der Versorgung mit Energie. Sam Altman sagte in einem Interview im letzten Jahr: OpenAI is heavily GPU-limited
Hier ein Text zu den Gedanken, die derzeit in den HInterzimmern der großen Software und Hardware Firmen umgehen:
Nicht einmal OpenAI - mit der Macht des allmächtigen Microsoft im Rücken - ist in der Lage, genügend GPUs ( Grafic Processor units ) zu bekommen, um seine neuen Modelle einzusetzen.
Und das verzögert den KI-Masterplan von OpenAI erheblich:
Keine multimodalen Modelle (z. B. Bilder und Ton)
Keine Modelle für längere Sequenzen
Kein Finetuning der Ergebnisse
Wie viele brauchen sie denn? Für einen einzigen der nächsten Trainings-Supercomputer von OpenAI werden voraussichtlich mehr als 75.000 Nvidia-GPUs benötigt.
Und die sind einfach nicht verfügbar
Diese Knappheit hat einen massiven Ansturm auf GPUs ausgelöst...
Bytedance, das Unternehmen hinter TikTok, hat Nvidia-GPUs im Wert von 1 Milliarde Dollar bestellt, um seine eigene KI zu entwickeln.
Meta wollte nicht zurückbleiben. Also beschloss man, laut Zuckerberg "genügend GPUs" zu bestellen - und dann "das Doppelte".
Allein in diesem Jahr werden 600.000 weitere Nvidia H100-Chips gekauft, die jeweils 30.000 Dollar kosten können.
Microsoft kauft bis 2024 mehr als 400.000 Grafikprozessoren für KI-Training und -Inferenz.
Und Nvidia kann nicht genug Grafikprozessoren herstellen, damit diese Unternehmen ihre KI-Ambitionen verfolgen können.
Sein Spitzen-GPU, der H100, war fast das ganze Jahr 2023 über ausverkauft, obwohl Nvidia fieberhaft daran arbeitete, die Produktion zu erhöhen.
Das Unternehmen ist dabei, mehr als 400.000 seiner Spitzen-GPUs pro Quartal auszuliefern. Dennoch wird geschätzt, dass die Nachfrage das Angebot derzeit um mindestens 50 % übersteigt.
Nvidias Plan zur Rettung der Welt
Glücklicherweise hat Nvidia damit begonnen, die GPU-Knappheit zu lindern.
Jensen Huang plant, die Produktion bis Ende 2025 zu vervierfachen, wodurch das Unternehmen in der Lage sein sollte, die Nachfrage vollständig zu decken.
Die Lieferfristen für Grafikprozessoren verkürzen sich von 8-11 Monaten auf nur noch 3-4 Monate.
Und die großen Technologieunternehmen beginnen, ihre eigenen zu bauen:
Microsofts Stargate-Projekt zum Beispiel wird maßgeschneiderte Computerchips verwenden.
Meta hat seinen eigenen fortschrittlichen KI-Chip, Artemis, hergestellt, um seine Abhängigkeit von Nvidia zu verringern.
Selbst Tesla stellt seinen eigenen Chip her, der weitaus leistungsfähiger ist als der von Nvidia.
Die Intelligenzkurve mag sich endlich verlangsamen.
Aber die Leistungskurve steht erst am Anfang. Und merken Sie sich meine Worte: Es wird das mächtigste Unternehmen der Welt entstehen.
Die Eine-Welt-Währung: Der Elektrodollar
Das schiere Ausmaß des Wachstums von KI-GPUs ist atemberaubend:
Die Rechenleistung, die online geht, verzehnfacht sich jetzt alle neun Monate.
Und jede dieser GPUs benötigt Strom. Aber die Stromerzeugung wächst nicht alle neun Monate um das Zehnfache.
Selbst die Halbleiterhersteller schlagen Alarm:
"Das Wachstum der KI übersteigt bei weitem die Fähigkeit, dafür sauberen Strom zu erzeugen."
- Nvidia-CEO Jensen Huang
Die Verkaufszahlen machen den Gesamtenergieverbrauch von KI-GPUs einfach zu berechnen.
Nvidia hat im Jahr 2023 100.000 Einheiten ausgeliefert. Diese Geräte werden jährlich 7,3 TWh verbrauchen.
Bis 2027 wird Nvidia voraussichtlich 1,5 Millionen KI-Servereinheiten ausliefern, die jährlich mehr als 85 TWh verbrauchen.
Das gilt allerdings nur, wenn der Stromverbrauch pro Einheit gleich bleibt. Stattdessen haben die aufeinanderfolgenden GPU-Modelle immer mehr Strom verbraucht.
In nur zwei Jahren hat Nvidia den Stromverbrauch eines einzelnen Chips vervierfacht.
Sein neuester Chip - Blackwell - verbraucht 1.200 Watt Strom. Und die Entwicklung der nächsten Generation von KI-Modellen erfordert Millionen von immer leistungsfähigeren Chips, die alle immer mehr Strom verbrauchen.
Das Haupthindernis für die Zukunft der KI ist nicht mehr die Technologie.
Es ist die Leistung.
Aber verlassen Sie sich nicht auf mein Wort. Mark Zuckerberg wurde gefragt, ob es etwas gibt, wofür Meta nicht die Ressourcen hat - etwas, das das Budget von Meta um das Zehnfache übersteigt.
Seine Antwort: "Energie."
Mit anderen Worten: Der gleiche Eifer und die gleichen Mittel, die in die GPUs geflossen sind, werden jetzt für die Energie eingesetzt.
Intelligenz hat Nvidia scheinbar über Nacht zu einem Multimillionen-Dollar-Unternehmen gemacht.
Energie wird ein weiteres Multimilliarden-Dollar-Unternehmen schaffen, und zwar genauso schnell.
Und das kommt schneller, als Sie denken.
"Die Chip-Knappheit mag hinter uns liegen, aber... die Welt wird im nächsten Jahr mit Lieferengpässen bei Strom und Transformatoren konfrontiert sein." - Elon Musk
Musk, Altman, Bezos und eine Handvoll anderer einflussreicher Weltmarktführer haben im Stillen an der Technologie gearbeitet, die die KI von ihren Energiebeschränkungen befreien wird.
Es ist der KI-Kill-Schalter.
Der Kernsatz ist: "Und jede dieser GPUs benötigt Strom. Aber die Stromerzeugung wächst nicht alle neun Monate um das Zehnfache."
die gibt es derzeit nicht. Schon überhaupt nicht, wenn im Sommer alle Amerikaner ihre Wohnungen kühlen wollen....
Deshalb bin ich ja total optimistisch für Deutschland, da wir ja Strom und Energiesicherheit quasi sicher haben, und das noch fast gratis, weil Sonne und Wind ja keine Rechnung schicken.
Für unsere Uraninvests bin ich höchst optimistisch, weil die Invests ja nicht in Deutschland stattfinden.
https://x.com/Skyharbour_SYH/status/1812875240885936588/photo/1
“We can’t NOT fill this load...it’s not an option to say we can’t accommodate it.”
sagt Kathleen Barrón von @ConstellationEG über den rasanten Anstieg der Energienachfrage.
Eine aktuelle Studie hat sich mit einer möglichen Lösung befasst: Rechenzentren, die gemeinsam mit Kernkraftwerken betrieben werden:
"Die Co-Loced Load Solution"
Neue Studie des ehemaligen PJM COO hebt die Vorteile der Co-Betreibung von Rechenzentren in Betrieb von Kernkraftwerken in wettbewerbsfähigen Strommärkten hervor.
Die Nachfrage nach sauberem und zuverlässigem Strom wird mit dem Einsatz von Hyperscale-Rechenzentren und anderen Großstromnutzern schnell wachsen. Diese Unternehmen benötigen eine konstante zuverlässige Energie, während sie gleichzeitig ihre Verpflichtungen zur Reduzierung der CO2-Emissionen erfüllen und die Kernenergie zu einem natürlichen Partner machen. In „The Co-Located Load Solution“ spricht Michael Kormos, der ehemalige Chief Operating Officer bei PJM, über die Vorteile der Co-Aussortierung dieser neuen Rechenzentren in Kernkraftwerken auf wettbewerbsfähigen Strommärkten, einschließlich der Fähigkeit, die bestehende Infrastruktur zu nutzen, um lange Verbindungsverzögerungen zu vermeiden. Die Co-Location mit einem Kernkraftwerk bietet eine wertvolle Option, die den Druck des Ausbaus zusätzlicher Übertragungskapazitäten verringert und dafür sorgt, dass sich die Integrationskosten auf den Rechenzentrumsbesitzer konzentrieren und nicht auf andere Stromnutzer verteilt werden. Für einen Eigentümer eines Kernkraftwerks könnte diese Art von Partnerschaft die Umsatzsicherheit bieten, die erforderlich sein wird, um in den langfristigen Betrieb der Station zu investieren, um sicherzustellen, dass diese wichtigen 24/7-Null-CO2-Generatoren zur Verfügung stehen, um die wachsende Nachfrage nach sauberer Energie für die kommenden Jahrzehnte zu decken. Das Papier erklärt auch, dass im Rahmen des Co-Location-Ansatzes keine Kosten vom Rechenzentrum auf andere Kunden verlagert werden.
Wer gerne die komplette Veröffentlichung im Original lesen will: https://www.nei.org/www.nei.org/files/bf/...d08-8dbb-11971f4cb659.pdf
https://www.sharedeals.de/cameco-aktie-10-das-kommt-unerwartet/