• Dell Lösungen für künstliche Intelligenz

    Dell KI-Lösungen

    Entdecken Sie die zahlreichen Vorteile des größten Portfolios für generative KI.1

    • KI für Ihre Daten

      Dell Technologies beschleunigt Ihren Weg vom Möglichen zum Bewährten durch den Einsatz innovativer Technologien, einer umfassenden Palette von Dienstleistungen und eines umfangreichen Partnernetzwerks.

    • KI-fähiges Portfolio

      Stellen Sie die beste KI-Leistung bereit2 und vereinfachen Sie die Beschaffung, die Bereitstellung und das Management von KI-Infrastrukturen, die für das Zeitalter der generativen KI entwickelt wurden – mit Technologie, Innovationen und den Vorteilen von Dell Technologies, um intelligentere und schnellere Ergebnisse zu erzielen.

    • Validierte Designs für KI

      Beschleunigen Sie die Time-to-Value mit Lösungen, die für KI und generative KI entwickelt wurden.

      • Beschleunigen Sie die Bereitstellung und reduzieren Sie Risiken mit technisch validierten Lösungen, die für Ihre Anwendungsfälle entwickelt und getestet wurden. 
      • Führen Sie moderne Anwendungen überall und jederzeit aus, indem Sie flexible Plattformen und skalierbare Infrastrukturen in einem Multi-Cloud-Ökosystem nutzen.
    • PowerEdge-Server für KI

      Mit generativer KI können Sie mit unseren KI-optimierten PowerEdge-Servern Ideen schneller in die Tat umsetzen.

      • PowerEdge XE-Server bieten hervorragende Beschleunigung und vielfältige GPU-Optionen.
      • Der PowerEdge R760xa verfügt über eine hohe PCIe-Kartendichte.
    • Storage für KI

      Schützen Sie Ihre Daten und verarbeiten Sie große Mengen unstrukturierter Daten mit einer flexiblen und skalierbaren Storage-Lösung.

      • Speziell entwickelt, um große Datenmengen mit außergewöhnlicher Leistung zu verarbeiten.
      • Optimieren Sie Ihre KI-Grundlage mit einer skalierbaren Datenplattform.
      • Realisieren Sie den ROI für Investitionen in KI und generative KI.
    • Datenmanagement für KI

      Erschließen Sie Ihre Daten vom Edge über den Core bis zur Multi-Cloud, um Ihre Analyse-, KI- und generativen KI-Workloads voranzutreiben.

      • Vereinfachen Sie die Suche nach, den Zugriff auf und die Verarbeitung von Daten über Umgebungen hinweg.
      • Ermöglichen Sie einen schnelleren Zugriff auf Daten, um die Modelloptimierung und die Geschäftsergebnisse zu beschleunigen.
      • Nutzen Sie eine gebrauchsfertige Lösung, die den Kauf, die Bereitstellung und das Lebenszyklusmanagement vereinfacht.
    • Dell Precision-Workstations

      KI-Plattformen und -Lösungen, die Sie für schnellere, intelligentere Ergebnisse benötigen. 

      • Maßgeschneidert zur Vereinfachung der Feinabstimmung, Entwicklung und Bereitstellung von generativen KI-Workloads und zur Beschleunigung der schnellen Prototypentwicklung.
      • Ideal für Sandbox-Umgebungen und eine kosteneffiziente Alternative für domänen- und unternehmensbasierte große Sprachmodelle (LLMs).
    • Dienstleistungen für KI

      Beschleunigen Sie die Leistungsfähigkeit von KI für Ihre Daten.

      • Erstellen und validieren Sie Ihre Roadmap für generative KI und stellen Sie gleichzeitig Innovationen mit einer etablierten Plattform für generative KI bereit.
      • Beschleunigen Sie die Time-to-Value für priorisierte Geschäftsanforderungen.
      • Fördern Sie generative KI-Fähigkeiten in Ihrem gesamten Unternehmen.
      • Generative KI für Ihr Unternehmen

        Erfahren Sie, wie Ihr Unternehmen das Potenzial von generativer KI durch die Erkenntnisse, Lösungen und Strategien von Dell zur Nutzung seiner transformativen Funktionen nutzen kann.

      • Validierte Designs für generative KI

        Dell Validated Designs sind vorab getestete, modulare Lösungen, die von ExpertInnen und PartnerInnen von Dell Technologies gemeinsam validiert werden. Sie rationalisieren die Planung, Bereitstellung und Prüfung und unterstützen verschiedene Anwendungsfälle für generative KI mit skalierbaren Komponenten, die auf Ihre spezifischen Anforderungen zugeschnitten werden können.

      • Validiertes Design für Inferencing

        Beim Inferencing werden vorab trainierte KI-Modelle verwendet, um auf der Grundlage von Eingabedaten Vorhersagen und Entscheidungen zu treffen oder Ausgaben zu generieren. Dieser Prozess ist für die praktische Umsetzung von generativer KI unerlässlich und ermöglicht die Generierung von Inhalten und Antworten in Echtzeit. Die Nutzung von vorab trainierten Modellen kann dazu beitragen, schneller und kosteneffizienter Ergebnisse zu erzielen.

        Validiertes Design für generative KI mit NVIDIA für Inferencing

        Bewältigt Inferencing-Herausforderungen wie Latenz, Reaktionsgeschwindigkeit und Rechenanforderungen und bietet Unterstützung bei der Transformation von Unternehmensdaten in hochwertige, intelligentere Ergebnisse. 

      • Validiertes Design für Modellanpassung und -optimierung

        Die Feinabstimmung ist der Prozess, bei dem Unternehmen domänenspezifische Daten aus ihrer Branche zu einem bereits vorhandenen großen Sprachmodell (LLM) hinzufügen können, damit dieses tiefer in die für das Unternehmen relevanten Informationen eintauchen kann.

        Generative KI mit NVIDIA für Modellanpassung und -optimierung

        Senkt die Kosten für die Optimierung mit bewährten Anleitungen für das erneute Training bestehender generativer KI-Modelle für Ihre Anwendungsfälle und Beispielen für Standardanpassungstechniken wie Transfer Learning und Prompt Tuning.


      • Kunden-Fallbeispiel

      • CyberAgent

        CyberAgent entwickelt japanische generative KI, um digitale Werbeservice zu transformieren. 

      • PathAI

        PathAI nutzt fortschrittliche Technologien zur Unterstützung der Pathologie und zur Verbesserung von Behandlungen und Behandlungsergebnissen.

      • KeyGene

        KeyGene schafft eine sicherere, nachhaltigere Zukunft für die Landwirtschaft.

      • Cambridge University

        Dell Technologies und Intel unterstützen den schnellsten KI-Supercomputer des Vereinigten Königreichs.

      • NHN Cloud

        NHN Cloud wählt Dell Technologies für den Betrieb des KI-Rechenzentrums in Südkorea.

      • University of Limerick

        Dell Technologies und die University of Limerick arbeiten zusammen, um die prädiktive und diagnostische Krebsforschung voranzutreiben.


    • Validierte Designs für KI

      Die Dell Technologies Validated Designs sind getestete und bewährte Konfigurationen, die von Anfang an so konzipiert wurden, dass sie sich dynamisch an die Anforderungen bestimmter Anwendungsfälle anpassen. 

    • Lösung Beschreibung Ressourcen
      KI für virtualisierte Umgebungen VMware-fähige KI mit NVIDIA AI Enterprise auf Dell Infrastruktur.
      AI MLOps mit cnvrg.io Standardisierung von Pipelines für maschinelles Lernen mit cnvrg.io zur Minimierung der Reibung für Data-Science- und Engineering-Teams von der Forschung bis zur Produktion.
      Automatisches maschinelles Lernen Automatisieren Sie die Auswahl von Algorithmen, die Generierung von Funktionen, das Tuning von Hyperparametern und die Bewertung von Modellen, um den Weg zur KI zu vereinfachen und zu beschleunigen.
      Dialogorientierte KI

      Bieten Sie außergewöhnliche, effektive und effiziente KI-fähige Kunden- und Mitarbeitererfahrungen in Sprach-Channels und digitalen Channels (einschließlich Chatbots und virtuelle Assistenten).

      Generative KI mit NVIDIA für Inferencing Mit einer gemeinsamen Architektur von Dell Technologies und NVIDIA können Sie schnell mit einem vorab trainierten Modell loslegen und mit der Produktion von Ergebnissen und Mehrwert beginnen.
      Generative KI mit NVIDIA für Modellanpassung und -optimierung Erfahren Sie, wie Sie ein bestehendes generatives KI-Modell für Ihre eigenen Anwendungsfälle neu trainieren können, mit Beispielen für Standardanpassungstechniken wie Transfer Learning und Prompt Tuning.

       

      NVIDIA-Flottenbefehl Durch die Bereitstellung dieses Designs können IT-AdministratorInnen eine sichere Remotesteuerung übernehmen, die Bereitstellung vereinfachen und eine ausfallsichere KI im gesamten Netzwerk innerhalb von Minuten bereitstellen.
      Red Hat OpenShift AI auf APEX Cloud Platform for Red Hat OpenShift Implementieren Sie einen digitalen Assistenten, indem Sie ein großes Sprachmodell (LLM) und das RAG-Framework (Retrieval Augmented Generation) nutzen.
    • KI überall und
      für alle Daten

      Virtuelle Veranstaltung: Erfahren Sie am 7. Dezember 2023
      mehr über unsere Vision für KI und Daten.

    • Häufig gestellte Fragen (FAQs)

    • Was ist der Unterschied zwischen künstlicher Intelligenz und generativer KI?

      Künstliche Intelligenz wendet erweiterte Analyse- und logikbasierte Techniken an, um Ereignisse zu interpretieren und Entscheidungen zu automatisieren. Generative KI hingegen schafft mehr Wert für Unternehmen, indem sie große Datensätze nutzt, um neue Inhalte wie Text, Bilder, Audio, Video, synthetische Daten und Softwarecode zu generieren. 

    • Warum sind Daten für künstliche Intelligenz und generative KI wichtig?

      Daten sind die Grundlage für künstliche Intelligenz und generative KI und ihre Quantität und Qualität wirken sich direkt auf die erzielten Ergebnisse aus. 

    • Wie können Unternehmen vom Einsatz generativer KI profitieren?

      Generative KI hat das Potenzial, die Arbeitsweise von Unternehmen zu verändern und sie auf eine Art und Weise zu transformieren, die wir uns gerade erst vorstellen können. Unternehmens- und IT-Führungskräfte nutzen nach und nach die vielen Vorteile, darunter höhere Produktivität, Kostensenkung, Innovationen und Kundenzufriedenheit.

  • Fragen?
    Wir helfen Ihnen gerne.
    Wir bieten Ihnen Beratung durch Experten und unterstützen Sie bei der Lösung komplexer Probleme.
    • 1 Basierend auf einer Analyse von Dell, August 2023.  Dell Technologies bietet Lösungen für KI-Workloads in 12 Produkt- und Servicekategorien.

      2Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse für die KI-Bildklassifizierung auf vergleichbaren 8-Wege-GPU-Servern, abgerufen unter www.mlperf.org am 27. Juni 2023. Der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs erzielte beim MLPerf™ v3.0-Training für den Benchmark zur KI-Bildklassifizierung in der Kategorie „Verfügbar on-premise“ von Closed Division ein Ergebnis von 13,466 und ist damit schneller als die Ergebnisse des GIGABYTE G593-SD0-Servers: 13,500; des Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servers: 13,603 bzw. 13,501; und des NVIDIA dgxh100_ngc23.04: 13,601; und die Ergebnisse in der Kategorie „Vorschau“ für den Quanta_Cloud_Technology D74H-7U_preview-Server: 13,721; Azure ND_H100_v5-Server: 13,819. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      * Der Dell PowerEdge XE9680 übertrifft die Leistung des Supermicro SuperServer SYS-821GE-TNHR in vier der sechs wichtigsten Benchmarks für KI-Anwendungen.

           Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse für die KI-Bildklassifizierung auf vergleichbaren 8-Wege-GPU-Servern, abgerufen unter www.mlperf.org am 27. Juni 2023. Der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs erzielte beim MLPerf™ v3.0-Training für den Benchmark zur KI-Bildklassifizierung in der Kategorie „Verfügbar on-premise“ von Closed Division ein Ergebnis von 13,466 und ist damit schneller als die Ergebnisse des GIGABYTE G593-SD0-Servers: 13,500; des Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servers: 13,603 bzw. 13,501; und des NVIDIA dgxh100_ngc23.04: 13,601; und die Ergebnisse in der Kategorie „Vorschau“ für den Quanta_Cloud_Technology D74H-7U_preview-Server: 13,721; Azure ND_H100_v5-Server: 13,819.  Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      ** Dell PowerEdge XE9680 übertraf Supermicro SuperServer SYS-821GE-TNHR und AS-8125GS-TNHR beim Training von KI-Modellen für die Verarbeitung natürlicher Sprache.

          Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse, die am 27. Juni 2023 unter www.mlperf.org abgerufen wurden, erzielte der Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs ein Ergebnis von 13,466 beim MLPerf™ v3.0-Training für die Bildklassifizierung; 16,846 bei der Spracherkennung; 19,985 bei der Objekterkennung, Heavy-Weight; und 5,363 bei den NLP-Benchmarks in der Kategorie „Verfügbar on-premise“ von Closed Division, was schneller ist als die vom Supermicro SYS-821GE-TNHR-Server erzielten Ergebnisse: 13,501 bei der Bildklassifizierung; 17,919 bei der Spracherkennung; 21,493 bei der Objekterkennung, Heavy-Weight; und 5,383 bei NLP. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org

      *** Der Dell PowerEdge XE9680 übertraf den Supermicro SuperServer AS-8125GS-TNHR in sechs Kategorien beim Vergleich der Trainingsläufe des Modells für maschinelles Lernen mit einem einzelnen Node.

            Basierend auf einer Dell Analyse öffentlich verfügbarer Performanceergebnisse, die am 27. Juni 2023 unter www.mlperf.org für den Dell PowerEdge XE9680 mit NVIDIA® H100 Tensor Core-GPUs abgerufen wurden, die ein Ergebnis von 13,466 beim MLPerf™ v3.0-Training für die Bildklassifizierung, 16,846 bei der Spracherkennung und 5,363 bei NLP-Benchmarks in der Kategorie „Verfügbar on-premise“ von Closed Division erreichten, was schneller ist als die von Supermicro AS-8125GS-TNHR- und SYS-821GE-TNHR-Servern erzielten Ergebnisse: 13,603 und 13,501 bei der Bildklassifizierung, 19,235 und 17,919 bei der Spracherkennung und 5,389 und 5,383 bei NLP. Das Ergebnis wurde von der MLCommons Association verifiziert. Der Name MLPerf™ und das Logo sind Marken der MLCommons Association in den USA und anderen Ländern. Alle Rechte vorbehalten. Unerlaubte Nutzung ist strengstens untersagt. Weitere Informationen finden Sie unter www.mlcommons.org