NVIDIA: Wer war dabei ?
aber die Börse ist manchmal irrational - halt viel Psychologie im Spiel und FOMO tut seinen Senf noch dazu! Bei den meisten Werten, wo ich bis jetzt (aus unterschiedlichen Gründen) ausgestiegen bin, ging es langfristig dann doch weiter gen Norden -also bei NVDA noch ein bisschen Zeit lassen :)
Übrigens gestern schon beeindruckender Kontostand - neue Stückzahl mit altem Kurs - könnt ich mich dran gewöhnen :)
Ab September könnte sich das schlagartig ändern.
**************************************************
Zitat: Übrigens gestern schon beeindruckender Kontostand - neue Stückzahl mit altem Kurs - könnt ich mich dran gewöhnen :)
Selbst wenn der Split 1:100 gewesen wäre und du mit 10000 Stücken dann im Depot versorgt wärst, bleibt es bei der gleichen Endsumme, hat dann nur mehr den Charakter eines Hotstocks-Invest, wobei Hotstock passt auch zu Nvidia, total heißgelaufen ;)
Wenn dann in 20 Jahren der Wert Realität geworden ist ( Inflation wird sein übriges dazu beitragen) kann ich sagen - hab ich doch schon damals prognostiziert :) Aber jetzt schauen wir uns erst mal die nahe "Zukunft" an, wird spannend genug!
Mit dem Verkaufen tue ich mich immer schwer (allein die fällige Steuer graust mir), aber irgendwann muss man auch anderen Werten mal eine "Chance" geben, vielleicht was Divi-lastiges?
https://www.ariva.de/news/...-bei-nvidia-vollzogen-kurs-wird-11272851
Meiner Meinung nach kann man kurzfristig (1-3 Monate) mit Nvidia zocken und auf 140$ hoffen, langfristig ist hier aber nichts mehr zu holen, alles positive ist bereits mehr als eingepreist.
Bank of America mit KZ 1500 USD (mit FOMO bei Retail auch noch möglich). Die Aktie hat nen Lauf, mal sehen. Die Großen werden das Schiff eh vorher verlassen und Retail ist am Arsch.
Auf jeden Fall die größte Blase weltweit.
Ich rechne damit, daß erstmal die MK von MSFT eingeholt wird und NVDA sich auf Platz 1 bewegt. Mit der von mir erwarteten harten Rezession ab Q4/2024. bzw. Q1/2025 dann -70% Absturz.
Jeder weiß um die Güte des Unternehmens, will das hier nicht in Frage stellen.
Es wird eine deutliche Korrektur geben.
Schau dir Tesla an.
Fahrzeuge stehen auf Halde, Preise runter.
Ich rechne mit ca. 132 $ (kurzfristig), zur Zeit sehen wir die totale FOMO
Hurra, da freue ich mich, ehrlich.
Habe ja auch Nvidia im Depot.
Rasante Kurssteigerung und dann Aktiensplitt.
Gut, wird weiter gekauft, vielleicht nicht so ganz wie erwartet.
Us-Märkte
Zinssenkungsphantasien seid Monaten.
Ups, die Wirtschaft läuft heiß, Inflation und Arbeitsmarkt zu hoch.
Ist echt die Frage, was passiert.
Kann ich an steigenden Kursen viel Geld verdienen oder doch besser an fallenden Kursen?
Die Frage muss jeder für sich entscheiden
Das Rückgrat der wichtigsten KI-Anwendungsfälle sind Daten. Effektive und präzise KI-Modelle müssen anhand umfangreicher Datensätze trainiert werden. Unternehmen, die die Leistungsfähigkeit der KI nutzen möchten, müssen eine Datenpipeline einrichten, die Daten aus verschiedenen Quellen extrahiert, in ein einheitliches Format umwandelt und effizient speichert.
Datenwissenschaftler arbeiten daran, Datensätze durch zahlreiche Experimente zu verfeinern, um KI-Modelle für optimale Leistung in realen Anwendungen zu optimieren. Diese Anwendungen, von Sprachassistenten bis hin zu personalisierten Empfehlungssystemen, erfordern eine schnelle Verarbeitung großer Datenmengen, um eine Echtzeitleistung zu liefern.
Da KI-Modelle immer komplexer werden und beginnen, unterschiedliche Datentypen wie Text, Audio, Bilder und Videos zu verarbeiten, wird die Notwendigkeit einer schnellen Datenverarbeitung immer wichtiger. Unternehmen, die weiterhin auf herkömmliche CPU-basierte Computer angewiesen sind, kämpfen mit eingeschränkter Innovation und Leistung aufgrund von Datenengpässen, steigenden Rechenzentrumskosten und unzureichenden Rechenkapazitäten.
Viele Unternehmen setzen auf beschleunigtes Computing , um KI in ihre Betriebsabläufe zu integrieren. Diese Methode nutzt GPUs, spezielle Hardware, Software und parallele Rechentechniken, um die Rechenleistung um das bis zu 150-fache zu steigern und die Energieeffizienz um das bis zu 42-fache zu erhöhen .
Führende Unternehmen aus verschiedenen Branchen nutzen die beschleunigte Datenverarbeitung, um bahnbrechende KI-Initiativen voranzutreiben.
Finanzorganisationen erkennen Betrug in Sekundenbruchteilen
Finanzorganisationen stehen vor der großen Herausforderung, Betrugsmuster zu erkennen, da große Mengen an Transaktionsdaten schnell analysiert werden müssen. Darüber hinaus erschwert der Mangel an gekennzeichneten Daten für tatsächliche Betrugsfälle das Training von KI-Modellen. Herkömmlichen Data-Science-Pipelines fehlt die erforderliche Beschleunigung, um die großen Datenmengen zu verarbeiten, die mit der Betrugserkennung verbunden sind. Dies führt zu längeren Verarbeitungszeiten, die die Echtzeit-Datenanalyse und Betrugserkennung behindern.
Um diese Herausforderungen zu meistern, nutzt American Express , das jährlich mehr als 8 Milliarden Transaktionen abwickelt, beschleunigtes Computing, um Long Short-Term Memory (LSTM)-Modelle zu trainieren und einzusetzen. Diese Modelle zeichnen sich durch sequenzielle Analyse und Anomalieerkennung aus und können sich an neue Daten anpassen und daraus lernen, was sie ideal für die Betrugsbekämpfung macht.
Durch den Einsatz paralleler Rechentechniken auf GPUs beschleunigt American Express das Training seiner LSTM-Modelle erheblich. GPUs ermöglichen es Live-Modellen außerdem, riesige Mengen an Transaktionsdaten zu verarbeiten, um Hochleistungsberechnungen durchzuführen und so Betrug in Echtzeit zu erkennen.
Das System arbeitet mit einer Latenzzeit von zwei Millisekunden, um Kunden und Händler besser zu schützen, und bietet eine 50-fache Verbesserung gegenüber einer CPU-basierten Konfiguration. Durch die Kombination des beschleunigten LSTM Deep Neural Network mit seinen bestehenden Methoden hat American Express die Genauigkeit der Betrugserkennung in bestimmten Segmenten um bis zu 6 % verbessert.
Finanzunternehmen können beschleunigtes Computing auch nutzen, um die Datenverarbeitungskosten zu senken. Durch die Ausführung datenintensiver Spark3-Workloads auf NVIDIA-GPUs bestätigte PayPal das Potenzial, die Cloud-Kosten für die Verarbeitung großer Datenmengen und KI-Anwendungen um bis zu 70 % zu senken .
Durch eine effizientere Datenverarbeitung können Finanzinstitute Betrug in Echtzeit erkennen, was schnellere Entscheidungen ohne Unterbrechung des Transaktionsflusses ermöglicht und das Risiko finanzieller Verluste minimiert.
Telekommunikationsunternehmen vereinfachen komplexe Routing-Vorgänge
Telekommunikationsanbieter generieren riesige Mengen an Daten aus verschiedenen Quellen, darunter Netzwerkgeräte, Kundeninteraktionen, Abrechnungssysteme sowie Netzwerkleistung und -wartung.
Die Verwaltung nationaler Netzwerke, die täglich Hunderte von Petabyte an Daten verarbeiten, erfordert eine komplexe Routenplanung der Techniker, um die Servicebereitstellung sicherzustellen. Um den Technikereinsatz zu optimieren, führen fortschrittliche Routing-Engines Billionen von Berechnungen durch und berücksichtigen dabei Faktoren wie Wetter, Fähigkeiten der Techniker, Kundenanfragen und Flottenverteilung. Der Erfolg dieser Vorgänge hängt von einer sorgfältigen Datenaufbereitung und ausreichender Rechenleistung ab.
AT&T betreibt zur Betreuung seiner Kunden eines der größten Außendienstteams des Landes und verbessert datenintensive Routing-Abläufe mit NVIDIA cuOpt, das zur Berechnung komplexer Fahrzeug-Routing-Probleme auf Heuristiken, Metaheuristiken und Optimierungen basiert.
In frühen Tests lieferte cuOpt Routing-Lösungen in 10 Sekunden , wodurch die Cloud-Kosten um 90 % gesenkt und Techniker in die Lage versetzt wurden, täglich mehr Serviceanrufe abzuwickeln. NVIDIA RAPIDS , eine Suite aus Softwarebibliotheken zur Beschleunigung von Data-Science- und Analyse-Pipelines, beschleunigt cuOpt noch weiter und ermöglicht Unternehmen die Integration lokaler Suchheuristiken und Metaheuristiken wie Tabu Search zur kontinuierlichen Routenoptimierung.
AT&T führt NVIDIA RAPIDS Accelerator für Apache Spark ein , um die Leistung von Spark-basierten KI- und Datenpipelines zu verbessern. Dies hat dem Unternehmen geholfen, die Betriebseffizienz in allen Bereichen zu steigern, vom Training von KI-Modellen über die Aufrechterhaltung der Netzwerkqualität bis hin zur Reduzierung der Kundenabwanderung und Verbesserung der Betrugserkennung. Mit RAPIDS Accelerator reduziert AT&T seine Cloud-Computing-Ausgaben für Ziel-Workloads, ermöglicht gleichzeitig eine schnellere Leistung und reduziert seinen CO2-Fußabdruck.
Beschleunigte Datenpipelines und -verarbeitung werden von entscheidender Bedeutung sein, da die Telekommunikationsunternehmen ihre Betriebseffizienz verbessern und gleichzeitig die höchstmögliche Servicequalität bieten möchten.
Biomedizinische Forscher verkürzen Zeitpläne für die Arzneimittelentdeckung
Da Forscher mithilfe von Technologie die rund 25.000 Gene des menschlichen Genoms untersuchen, um ihren Zusammenhang mit Krankheiten zu verstehen, ist die Zahl medizinischer Daten und von Experten begutachteter Forschungsarbeiten explosionsartig gestiegen. Biomedizinische Forscher verlassen sich auf diese Arbeiten, um das Untersuchungsfeld für neuartige Behandlungen einzugrenzen. Allerdings ist es zu einer unmöglichen Aufgabe geworden, Literaturrecherchen zu einem so umfangreichen und wachsenden Bestand relevanter Forschungsarbeiten durchzuführen.
AstraZeneca, ein führendes Pharmaunternehmen, hat einen Biological Insights Knowledge Graph (BIKG) entwickelt, der Wissenschaftler im gesamten Arzneimittelentdeckungsprozess unterstützt, von der Literaturrecherche über die Bewertung von Screen-Treffern bis hin zur Zielidentifizierung und vielem mehr. Dieser Graph integriert öffentliche und interne Datenbanken mit Informationen aus der wissenschaftlichen Literatur und modelliert zwischen 10 Millionen und 1 Milliarde komplexe biologische Zusammenhänge.
BIKG wurde erfolgreich für die Genbewertung eingesetzt und unterstützte Wissenschaftler bei der Entwicklung von Hypothesen über potenziell vielversprechende Ziele für neuartige Krankheitsbehandlungen. Auf der NVIDIA GTC stellte das Team von AstraZeneca ein Projekt vor, bei dem erfolgreich Gene identifiziert wurden, die mit Resistenzen bei Lungenkrebsbehandlungen in Zusammenhang stehen.
Um die Anzahl potenzieller Gene einzugrenzen, arbeiteten Datenwissenschaftler und Biologen zusammen, um die Kriterien und Genmerkmale zu definieren, die sich ideal für die Entwicklung von Behandlungen eignen. Sie trainierten einen Algorithmus für maschinelles Lernen, um die BIKG-Datenbanken nach Genen mit den in der Literatur als behandelbar genannten Merkmalen zu durchsuchen. Mithilfe von NVIDIA RAPIDS für schnellere Berechnungen reduzierte das Team den anfänglichen Genpool von 3.000 auf nur 40 Zielgene, eine Aufgabe, die früher Monate dauerte, jetzt aber nur noch Sekunden dauert.
Indem sie die Arzneimittelentwicklung durch beschleunigtes Computing und künstliche Intelligenz ergänzen, können Pharmaunternehmen und Forscher endlich die enormen Datenmengen nutzen, die im medizinischen Bereich anfallen, um schneller und sicherer neue Medikamente zu entwickeln, die letztlich Leben retten können.
Versorgungsunternehmen gestalten die Zukunft sauberer Energie
Im Energiesektor wird derzeit stark auf die Umstellung auf kohlenstoffneutrale Energiequellen gedrängt. Da die Kosten für die Nutzung erneuerbarer Ressourcen wie Solarenergie in den letzten zehn Jahren drastisch gesunken sind, war die Chance, echte Fortschritte in Richtung einer sauberen Energiezukunft zu erzielen, nie größer.
Dieser Trend hin zur Integration sauberer Energie aus Windparks, Solaranlagen und Heimbatterien hat jedoch neue Komplexitäten in der Netzverwaltung mit sich gebracht. Da die Energieinfrastruktur vielfältiger wird und bidirektionale Stromflüsse berücksichtigt werden müssen, ist die Verwaltung des Netzes datenintensiver geworden. Neue intelligente Netze sind jetzt erforderlich, um Hochspannungsbereiche für das Laden von Fahrzeugen zu verwalten. Sie müssen auch die Verfügbarkeit verteilter gespeicherter Energiequellen verwalten und sich an Schwankungen im Verbrauch im gesamten Netz anpassen.
Utilidata, ein führendes Grid-Edge-Softwareunternehmen , hat in Zusammenarbeit mit NVIDIA eine verteilte KI-Plattform namens Karman für den Grid Edge entwickelt, die ein benutzerdefiniertes NVIDIA Jetson Orin Edge-KI-Modul verwendet. Dieser benutzerdefinierte Chip und diese Plattform, die in Stromzähler eingebettet sind, verwandeln jeden Zähler in einen Datenerfassungs- und Kontrollpunkt, der Tausende von Datenpunkten pro Sekunde verarbeiten kann.
Karman verarbeitet hochauflösende Echtzeitdaten von Zählern am Rand des Netzwerks. Dadurch erhalten Versorgungsunternehmen detaillierte Einblicke in die Netzbedingungen, können den Verbrauch vorhersagen und verteilte Energieressourcen nahtlos in Sekunden statt in Minuten oder Stunden integrieren. Darüber hinaus können Netzbetreiber mit Inferenzmodellen auf Edge-Geräten Leitungsfehler vorhersehen und schnell identifizieren, um potenzielle Ausfälle vorherzusagen und vorbeugende Wartung durchzuführen, um die Netzzuverlässigkeit zu erhöhen.
Durch die Integration von KI und beschleunigter Datenanalyse hilft Karman Versorgungsunternehmen dabei, bestehende Infrastrukturen in effiziente Smart Grids umzuwandeln. Dies ermöglicht eine maßgeschneiderte, lokalisierte Stromverteilung, die schwankenden Nachfragemustern gerecht wird, ohne dass umfangreiche physische Infrastrukturverbesserungen erforderlich sind, und erleichtert so eine kostengünstigere Modernisierung des Netzes.
Automobilhersteller ermöglichen sicherere, zugänglichere, selbstfahrende Fahrzeuge
Da Automobilhersteller nach vollautonomen Fahrfunktionen streben, müssen Fahrzeuge in der Lage sein, Objekte zu erkennen und in Echtzeit zu navigieren. Dies erfordert Hochgeschwindigkeitsdatenverarbeitungsaufgaben, einschließlich der Einspeisung von Live-Daten von Kameras, Lidar, Radar und GPS in KI-Modelle, die Navigationsentscheidungen treffen, um die Straßen sicher zu halten.
Der Inferenz-Workflow beim autonomen Fahren ist komplex und umfasst mehrere KI-Modelle sowie die erforderlichen Vor- und Nachbearbeitungsschritte. Traditionell wurden diese Schritte clientseitig mithilfe von CPUs ausgeführt. Dies kann jedoch zu erheblichen Engpässen bei der Verarbeitungsgeschwindigkeit führen, was ein inakzeptabler Nachteil für eine Anwendung ist, bei der schnelle Verarbeitung Sicherheit bedeutet.
Um die Effizienz der Arbeitsabläufe beim autonomen Fahren zu verbessern, hat der Elektrofahrzeughersteller NIO den NVIDIA Triton Inference Server in seine Inferenz-Pipeline integriert. NVIDIA Triton ist eine Open-Source-, Multi-Framework- und Inferenz-Software. Durch die Zentralisierung von Datenverarbeitungsaufgaben reduzierte NIO die Latenz in einigen Kernbereichen um das Sechsfache und erhöhte den gesamten Datendurchsatz um bis zu das Fünffache.
Der GPU-zentrierte Ansatz von NIO erleichterte die Aktualisierung und Bereitstellung neuer KI-Modelle, ohne dass an den Fahrzeugen selbst etwas geändert werden musste. Darüber hinaus konnte das Unternehmen mehrere KI-Modelle gleichzeitig auf demselben Bildsatz verwenden, ohne Daten über ein Netzwerk hin und her senden zu müssen, was Datenübertragungskosten sparte und die Leistung verbesserte.
Durch den Einsatz beschleunigter Datenverarbeitung stellen Entwickler von Software für autonome Fahrzeuge sicher, dass sie einen hohen Leistungsstandard erreichen, um Verkehrsunfälle zu vermeiden, Transportkosten zu senken und die Mobilität der Benutzer zu verbessern.
Einzelhändler verbessern Nachfrageprognosen
Im schnelllebigen Einzelhandelsumfeld ist die Fähigkeit, Daten schnell zu verarbeiten und zu analysieren, von entscheidender Bedeutung, um Lagerbestände anzupassen, Kundeninteraktionen zu personalisieren und Preisstrategien im Handumdrehen zu optimieren. Je größer ein Einzelhändler ist und je mehr Produkte er führt, desto komplexer und rechenintensiver sind seine Datenoperationen.
Walmart, der größte Einzelhändler der Welt, setzte auf beschleunigtes Computing, um die Prognosegenauigkeit für 500 Millionen Artikel-Laden-Kombinationen in 4.500 Filialen deutlich zu verbessern.
Während Walmarts Datenwissenschaftsteam robustere Algorithmen für maschinelles Lernen entwickelte, um diese gigantische Prognoseherausforderung zu meistern, geriet die vorhandene Computerumgebung ins Wanken. Jobs konnten nicht abgeschlossen werden oder lieferten ungenaue Ergebnisse. Das Unternehmen stellte fest, dass Datenwissenschaftler Funktionen aus Algorithmen entfernen mussten, damit diese bis zum Ende ausgeführt werden konnten.
Um seine Prognosevorgänge zu verbessern, begann Walmart mit der Verwendung von NVIDIA-Grafikprozessoren und RAPIDs . Das Unternehmen verwendet jetzt ein Prognosemodell mit 350 Datenfunktionen, um den Umsatz in allen Produktkategorien vorherzusagen. Diese Funktionen umfassen Verkaufsdaten, Werbeveranstaltungen und externe Faktoren wie Wetterbedingungen und Großereignisse wie den Super Bowl, die die Nachfrage beeinflussen.
Mithilfe fortschrittlicher Modelle konnte Walmart die Prognosegenauigkeit von 94 % auf 97 % steigern und gleichzeitig die Abfälle bei Frischwaren im Wert von schätzungsweise 100 Millionen US-Dollar einsparen sowie Lagerausfälle und Preisnachlässe reduzieren. GPUs führten die Modelle zudem 100-mal schneller aus, sodass Aufträge in nur vier Stunden abgeschlossen waren, ein Vorgang, der in einer CPU-Umgebung mehrere Wochen gedauert hätte.
Durch die Verlagerung datenintensiver Vorgänge auf GPUs und beschleunigtes Computing können Einzelhändler sowohl ihre Kosten als auch ihren CO2-Fußabdruck senken und ihren Kunden gleichzeitig optimale Auswahlmöglichkeiten und niedrigere Preise bieten.
Öffentlicher Sektor verbessert Katastrophenvorsorge
Drohnen und Satelliten erfassen riesige Mengen an Luftbilddaten, die öffentliche und private Organisationen nutzen, um Wettermuster vorherzusagen, Tierwanderungen zu verfolgen und Umweltveränderungen zu beobachten. Diese Daten sind für Forschung und Planung von unschätzbarem Wert und ermöglichen fundiertere Entscheidungen in Bereichen wie Landwirtschaft, Katastrophenschutz und Bemühungen zur Bekämpfung des Klimawandels. Der Wert dieser Bilder kann jedoch eingeschränkt sein, wenn ihnen spezifische Standortmetadaten fehlen.
Eine Bundesbehörde, die mit NVIDIA zusammenarbeitet, benötigte eine Methode, um automatisch den Standort von Bildern zu bestimmen, denen georäumliche Metadaten fehlen. Diese sind für Missionen wie Such- und Rettungseinsätze, die Reaktion auf Naturkatastrophen und die Umweltüberwachung unverzichtbar. Allerdings ist die Identifizierung eines kleinen Bereichs innerhalb einer größeren Region anhand eines Luftbilds ohne Metadaten eine äußerst schwierige Aufgabe, vergleichbar mit der Suche nach der Nadel im Heuhaufen. Algorithmen, die bei der Geolokalisierung helfen sollen, müssen Variationen in der Bildbeleuchtung und Unterschiede berücksichtigen, die sich aus der Aufnahme von Bildern zu unterschiedlichen Zeiten, an unterschiedlichen Tagen und aus unterschiedlichen Winkeln ergeben.
Um Luftbilder ohne Geotags zu identifizieren, haben NVIDIA, Booz Allen und die Regierungsbehörde gemeinsam an einer Lösung gearbeitet, die Computer-Vision-Algorithmen nutzt, um Informationen aus Bildpixeldaten zu extrahieren und so das Problem der Bildähnlichkeitssuche zu skalieren.
Bei dem Versuch, dieses Problem zu lösen, verwendete ein NVIDIA-Lösungsarchitekt zunächst eine Python-basierte Anwendung. Die Verarbeitung dauerte zunächst mehr als 24 Stunden, obwohl sie auf CPUs lief. GPUs verkürzten dies auf wenige Minuten und führten Tausende von Datenoperationen parallel aus, während auf einer CPU nur eine Handvoll Operationen möglich waren. Durch die Verschiebung des Anwendungscodes auf CuPy, eine GPU-beschleunigte Open-Source-Bibliothek, wurde die Anwendung um das 1,8-Millionenfache beschleunigt und lieferte Ergebnisse in 67 Mikrosekunden.
Mit einer Lösung, die Bilder und Daten großer Landmassen in nur wenigen Minuten verarbeiten kann, erhalten Organisationen Zugriff auf die wichtigen Informationen, die sie benötigen, um schneller und effektiver auf Notfälle reagieren und proaktiv planen zu können. So können möglicherweise Leben gerettet und die Umwelt geschützt werden.
Beschleunigen Sie KI-Initiativen und erzielen Sie Geschäftsergebnisse
Unternehmen, die beschleunigtes Computing zur Datenverarbeitung nutzen, treiben KI-Initiativen voran und positionieren sich so, dass sie innovativer und leistungsfähiger sind als ihre Konkurrenten.
Durch beschleunigtes Computing lassen sich größere Datensätze effizienter verarbeiten, es ist ein schnelleres Modelltraining und die Auswahl optimaler Algorithmen möglich und es werden präzisere Ergebnisse für Live-KI-Lösungen erzielt.
Unternehmen, die es verwenden, können im Vergleich zu herkömmlichen CPU-basierten Systemen ein besseres Preis-Leistungs-Verhältnis erzielen und ihre Fähigkeit verbessern, Kunden, Mitarbeitern und Partnern hervorragende Ergebnisse und Erfahrungen zu bieten.
https://blogs.nvidia.com/blog/...a-processing-ai-industry-innovation/