{{filteredTerms.length}} search results for “{{searchTerm}}”

Was ist ein Active Data Warehouse?

Ein Active Data Warehouse ist eine Kombination aus Produkten, Features, Services und Partnerschaften, die die Active Enterprise Intelligence-Geschäftsstrategie unterstützt. Dieser Begriff wurde 2001 von Teradata geprägt.

Mehr erfahren

Was ist ein Algorithmus?

Im Kontext von Big Data sind Algorithmen das primäre Mittel, um Erkenntnisse zu gewinnen und Muster zu erkennen. Daher sind sie unerlässlich, um den Big Data Business Case zu realisieren.

Mehr erfahren

Was ist eine Analytics-Plattform?

Eine Analytics-Plattform ist eine vollausgestattete technische Lösung, die auf die Anforderungen großer Unternehmen zugeschnitten ist. Typischerweise verbindet sie verschiedene Tools und Analytics-Systeme mit einer Engine, einer Datenbank oder einem Repository zum Speichern und Verwalten von Daten, Data Mining-Prozessen sowie Techniken und Mechanismen zum Abrufen und Aufbereiten von Daten, die nicht gespeichert sind.

Mehr erfahren

Was ist Apache Hive?

Apache Hive ist eine Open Source Data Warehouse-Infrastruktur, die Tools für die Zusammenfassung, Abfrage und Analyse von Daten bereitstellt. Sie wurde speziell für die Untersuchung großer Datensätze entwickelt, die in Hadoop-Dateien und kompatiblen Dateisystemen wie Amazon S3 abgelegt sind. Hive wurde ursprünglich 2008 von Facebook entwickelt, wird heute aber von vielen Unternehmen verwendet.

Mehr erfahren

Was ist Behavioral Analytics?

Behavioral Analytics misst, wie Anwender mit digitalen Applikationen (Web, Mobile, IoT) interagieren, und wie scheinbar unzusammenhängende Daten etwas erklären oder vorhersagen können.

Mehr erfahren

Was ist Big Data?

Big Data ist ein allumfassender Begriff für Datensatz-Sammlungen, die so groß oder komplex sind, dass sie kaum mit herkömmlichen Anwendungen verarbeitet werden können.

Mehr erfahren

Was ist Big Data Analytics?

Big Data Analytics bezieht sich auf die Analyse große Datenmengen (...), gespeist aus einer Vielzahl von Quellen, einschließlich sozialer Netzwerke, Videos, digitaler Bilder, Sensoren und Aufzeichnungen von Verkaufstransaktionen.

Mehr erfahren

What is a Business Continuity Plan?

A Business Continuity Plan (BCP) is a detailed document that outlines how an organisation will continue to operate through an unplanned disruption in service. The BCP is not just a regulatory requirement within many industries, but should be considered as a guide to reduce the time it takes for operations to return to normal. It plays a critical role in an organisation’s Operational Resilience.

Mehr erfahren

Was ist Business Intelligence?

Business Intelligence (BI) analysiert Geschäftsdaten und präsentiert leicht verdauliche Berichte, Leistungskennzahlen und Trends, um Management-Entscheidungen zu optimieren.

Mehr erfahren

Was ist Cascading?

Cascading ist eine Plattform für die Entwicklung von Big Data-Anwendungen auf Hadoop. Es bietet eine Rechen-Engine, ein Systemintegrations-Framework sowie Datenverarbeitungs- und Planungsfunktionen.

Mehr erfahren

Was ist eine CDP?

Eine Customer Data Platform (CDP) ist eine Art Softwarepaket, das eine persistente, einheitliche Kundendatenbank erstellt, auf die andere Systeme zugreifen können.

Mehr erfahren

Was ist Cloud Computing?

Cloud Computing bezeichnet die Praxis, ein Netzwerk von Remote-Servern zum Speichern, Verwalten und Verarbeiten von Daten (anstelle eines lokalen Servers oder eines PCs) zu verwenden. Dieses Netzwerk hat über das Internet (die Cloud) Zugriff auf entsprechende Daten.

Mehr erfahren

Was ist eine Cluster Analyse?

Cluster Analyse beziehungsweise Clustering ist eine statistische Klassifizierungstechnik, bei der eine Gruppe von Objekten oder Daten so zusammengestellt wird, dass die Objekte oder Daten in derselben Gruppe (Cluster genannt) einander ähnlich sind, sich jedoch von denen in anderen Clustern unterscheiden.

Mehr erfahren

Was ist Comparative Analytics?

Comparative Analytics bezeichnet den Vergleich von zwei oder mehr Prozessen, Dokumenten, Datensätzen oder anderen Objekten. Pattern Analysis (Musteranalyse), Filtering und Entscheidungsbaumanalyse sind Formen der vergleichenden Analyse. I

Mehr erfahren

Was ist Concurrent Computing bzw. Parallelität?

Concurrent Computing beziehungsweise Parallelität bezieht sich auf eine Form des Computings, bei der mehrere Rechenaufgaben gleichzeitig anfallen. Diese Aufgaben können von einzelnen Computern, bestimmten Anwendungen oder über Netzwerke hinweg erledigt werden.

Mehr erfahren

Was ist Connection Analytics?

Connection Analytics ist eine aufstrebende Disziplin. Sie hilft, Verbindungen und Einflüsse zwischen Menschen, Produkten, Prozessen, Maschinen und Systemen innerhalb eines Netzwerks aufzudecken. Dafür werden diese Verbindungen abgebildet und Interaktionen zwischen ihnen kontinuierlich überwacht.

Mehr erfahren

Was ist Correlation Analysis?

Correlation Analysis beziehungsweise Korrelationsanalyse bezieht sich auf die Anwendung statistischer Analysen und anderer mathematischer Techniken, um die Beziehungen zwischen Variablen zu bewerten oder zu messen.

Mehr erfahren

Was ist ein Data Analyst?

Die Aufgabe von Data Analysts beziehungsweise Datenanalysten ist es, Big Data innerhalb bestimmter Funktionen und Prozesse zu operationalisieren, mit einem klaren Fokus auf Performance Trends und operative Informationen.

Mehr erfahren

What is Data Analytics?

Data analytics, also known as advanced analytics or big data analytics, is an autonomous or semi-autonomous inspection of data or content using sophisticated techniques and tools beyond those of traditional business intelligence (BI), to uncover deeper insights, make predictions, or produce recommendations. Techniques include data/text mining, machine learning, pattern matching, forecasting, visualization, semantic analysis, sentiment analysis, network and cluster analysis, multivariate statistics, graph analysis, simulation, complex event processing, neural networks.

Mehr erfahren

Was ist eine Datenarchitektur?

Die Teradata Unified Data Architecture ist die erste umfassende Big Data-Architektur. Dieses Framework nutzt relationale und nicht-relationale Repositories über SQL- und Nicht-SQL-Analysen hinweg.

Mehr erfahren

Was ist Datenbereinigung?

Datenbereinigung, im Englischen Data Cleansing oder Data Scrubbing genannt, bezeichnet den Prozess des Erkennens und Korrigierens oder Entfernens ungenauer Daten oder Datensätze aus einer Datenbank.

Mehr erfahren

Was ist Data Gravity?

Man spricht von Datengravitation, wenn die Menge des Datenvolumens in einem Repository sowie die Abfragen soweit zunehmen, dass das Kopieren und Migrieren von Daten anstrengend und teuer wird.

Mehr erfahren

Was ist ein Data Lake?

Data Lakes ergänzen Data Warehouses mit einem Design, das sich auf die ursprüngliche Rohdatentreue und langfristige Speicherung zu niedrigen Kosten konzentriert und gleichzeitig eine neue Form der analytischen Agilität bietet.

Mehr erfahren

Was ist Datenlatenz?

Datenlatenz ist die Fähigkeit, Daten nahezu in Echtzeit zu laden und zu aktualisieren und gleichzeitig Abfrage-Workloads zu unterstützen.

Mehr erfahren

Was ist ein Data Mart?

Ein Data Mart ist ein themenorientierter Ausschnitt eines Data Warehouse, der eine begrenzte Gruppe von Nutzern bedient.

Mehr erfahren

Was ist Data Mining?

Data Mining ist der Prozess der Analyse verborgener Datenmuster entsprechend den Kriterien für die Kategorisierung in nützliche Informationen. Diese werden in Bereichen wie Data Warehouses gesammelt.

Mehr erfahren

Was ist Datenmodellierung?

"Datenmodellierung ist die Analyse von Datenobjekten, die in einem geschäftlichen oder anderen Kontext verwendet werden, und die Identifizierung der Beziehungen zwischen diesen Datenobjekten. Ein Datenmodell kann als Diagramm oder Flussdiagramm angezeigt werden, das die Beziehungen zwischen Daten veranschaulicht." Quelle: TechTarget Datenmodelle, die auf bestimmte Branchen oder Geschäftsfunktionen zugeschnitten sind, können eine starke Grundlage für Big Data-Programme und -Investitionen bieten.

Mehr erfahren

Was ist ein Data Volume?

Data Volume ist die Speicherung und Verarbeitung von Petabyte an Daten nativ und im Objektspeicher.

Mehr erfahren

What is a Data Warehouse?

In computing, a data warehouse (DW or DWH), also known as an enterprise data warehouse (EDW), is a system used for reporting and data analysis.

Mehr erfahren

Was ist Deep Learning?

Deep Learning, auch bekannt als Deep Neural Learning oder Deep Neural Network, ist eine Funktion der künstlichen Intelligenz (KI), die nachahmt, wie das menschliche Gehirn arbeitet, um Daten zu verarbeiten und Muster zu erstellen, die die Entscheidungsfindung erleichtern.

Mehr erfahren

Was ist Descriptive Analytics?

Descriptive Analytics bezeichnet die Analyse historischer Daten, um festzustellen, was passiert ist, was sich verändert hat und welche Muster identifiziert werden können.

Mehr erfahren

Was ist ETL?

Extract, Transform and Load (ETL) bezieht sich auf den Prozess im Data Warehousing, der gleichzeitig Daten aus Quellsystemen liest (oder extrahiert), sie in das richtige Format für Abfragen und Analysen konvertiert (oder transformiert) und in ein Data Warehouse, einen operativen Data Store oder einen Data Mart lädt.

Mehr erfahren

Was ist ein Exabyte?

Ein Exabyte (EB) ist eine außergewöhnlich große Einheit digitaler Daten. Ein EB entspricht 1.000 Petabyte oder einer Milliarde Gigabyte (GB). Es wird geschätzt, dass alle Wörter, die jemals von der Menschheit gesprochen wurden, fünf Exabyte entsprechen.

Mehr erfahren

Was ist Finance Analytics?

Finance Analytics ist auch bekannt als Finanzanalyse oder Financial Analytics. Es offeriert unterschiedliche Perspektiven auf die Finanzdaten eines Unternehmens und gibt Einblicke, die strategische Entscheidungen und Maßnahmen erleichtern können, um die Gesamtleistung des Unternehmens zu verbessern.

Mehr erfahren

Was ist Hadoop?

Hadoop ist eine verteilte Plattform für das Datenmanagement beziehungsweise ein Open Source-Software Framework zum Speichern und Verarbeiten von Big Data. Es wird manchmal als ein kleines verteiltes Betriebssystem beschrieben.

Mehr erfahren

What is a Hybrid Cloud?

Hybrid cloud is the combination of on-premises and cloud deployment. Whether an organization’s resources include on-premises, private, public, or multi-cloud, a hybrid cloud ecosystem can deliver the best of all worlds: on-prem when needed and cloud when needed.

Mehr erfahren

Was ist das Internet der Dinge (IoT)?

Das Internet der Dinge, auch bekannt als Internet of Things (IoT), ist ein Konzept, das die Verbindung von alltäglichen physischen Objekten und Produkten mit dem Internet beschreibt. Diese Objekte sind (durch eindeutige Identifikatoren) erkennbar und können sich auf andere Geräte beziehen.

Mehr erfahren

Was ist Machine Learning?

Machine Learning (ML), zu Deutsch maschinelles Lernen, ist eine Art künstliche Intelligenz (KI), die Computern die Fähigkeit gibt, zu lernen, ohne explizit programmiert zu werden. Es konzentriert sich auf die Entwicklung von Computerprogrammen, die sich selbst beibringen können, zu wachsen und sich zu verändern, wenn sie neue Daten erhalten.

Mehr erfahren

Was ist Master Data Management (MDM)?

Master Data Management (MDM) bietet eine einheitliche Sicht auf Daten über mehrere Systeme hinweg, um die analytischen Anforderungen eines globalen Unternehmens zu erfüllen. MDM erstellt singuläre Ansichten von Stamm- und Referenzdaten, unabhängig davon, ob es Kunden, Produkte, Lieferanten, Standorte oder andere wichtige Attribute beschreibt.

Mehr erfahren

Was sind Metadaten?

Metadaten sind Daten, die andere Daten strukturiert und konsistent beschreiben. Im Laufe der Zeit können damit große Datenmengen gesammelt, gespeichert und analysiert werden.

Mehr erfahren

Was ist Mixed Workload?

Eine gemischte Workload (Mixed Workload) gibt die Möglichkeit, mehrere Anwendungen mit unterschiedlichen SLAs in einer einzigen Umgebung zu unterstützen.

Mehr erfahren

Was ist MongoDB?

MongoDB ist eine plattformübergreifende Open Source-Datenbank, die ein dokumentorientiertes Datenmodell anstelle einer herkömmlichen tabellenbasierten relationalen Datenbankstruktur verwendet. Diese Art von Modell macht die Integration von strukturierten und unstrukturierten Daten einfacher und schneller.

Mehr erfahren

Was ist Natural Language Processing?

Natural Language Processing (NLP) ist ein Zweig der künstlichen Intelligenz und befasst sich damit, menschliche Sprache (sowohl in schriftlicher als auch in gesprochener Form) für Computer verständlich zu machen.

Mehr erfahren

What is Operational Resilience?

Operational Resilience refers to an organization’s ability to continue functioning in the face of disruption. Considerations for Operational Resilience are multi-faceted. They include, but are not limited to, processes, capabilities, behaviors and systems. For example, Operational Resilience is the capability of an organization to still provide its products in the face of unforeseen supply chain disruptions. Equally, the ability for a company to move their data on-premises while their primary cloud service provider suffered a major outage would factor into that company’s level of Operational Resilience.

Mehr erfahren

Was ist Pattern Recognition?

Von Pattern Recognition, zu Deutsch Mustererkennung, spricht man, wenn ein Algorithmus Wiederholungen oder Regelmäßigkeiten in großen Datensätzen oder über unterschiedliche Datensätze hinweg lokalisiert. Es ist eng miteinander verbunden und gilt sogar als Synonym für maschinelles Lernen und Data Mining.

Mehr erfahren

Was ist ein Petabyte?

Ein Petabyte ist eine extrem große Einheit digitaler Daten, es besteht aus 1.000 Terabyte. Einige Schätzungen gehen davon aus, dass ein Petabyte 20 Millionen hohen Aktenschränken oder 500 Milliarden Seiten gedrucktem Standardtext entspricht.

Mehr erfahren

Was ist Predictive Analytics?

Predictive Analytics bezieht sich auf die Analyse von Big Data, um Vorhersagen zu treffen und die Wahrscheinlichkeit zukünftiger Ergebnisse, Trends oder Ereignisse zu bestimmen.

Mehr erfahren

Was ist Prescriptive Analytics?

Prescriptive Analytics ist eine Erweiterung von Prescriptive Analytics und wird verwendet, um Aktionen zu empfehlen oder vorzuschreiben, sobald bestimmte Informationszustände erreicht oder Bedingungen erfüllt sind.

Mehr erfahren

Was ist Python?

Python ist eine interpretierte, objektorientierte und höhere Programmiersprache mit dynamischer Semantik, die von Guido van Rossum ursprünglich im Jahr 1991 entwickelt wurde. Der Namen ist eine Anspielung auf die britische Comedy-Gruppe Monty Python. Python hat den Ruf, eine anfängerfreundliche Sprache zu sein, die Java als die am weitesten verbreitete Einführungssprache ersetzt hat. Sie übernimmt einen Großteil der Komplexität für den Benutzer und ermöglicht es Anfängern, sich auf das vollständige Erfassen von Programmierkonzepten und nicht auf winzige Details zu konzentrieren.

Mehr erfahren

Was ist R?

R ist eine Open Source-Programmiersprache für statistische Analysen. Es bietet eine Befehlszeilenschnittstelle und mehrere grafische Oberflächen. Beliebte Algorithmustypen sind lineare und nichtlineare Modellierung, Zeitreihenanalyse, Klassifizierung und Clustering.

Mehr erfahren

Was ist Retail Analytics?

Retail Analytics ist die Analyse von Daten, die von Einzelhandelsbetrieben generiert werden. Ziel ist es, Geschäftsentscheidungen zu treffen, die die Rentabilität steigern. Retail Analytics wird als Reaktion auf die Transformation des Einzelhandels eingesetzt, die durch beispiellose Veränderungen im Verbraucherverhalten, verstärkten Margendruck, die sich verändernde Rolle der Ladengeschäfte und einen verschärften Wettbewerb um On- und Offline-Kanäle angestoßen wurde.

Mehr erfahren

Was ist Risikomanagement?

Risikomanagement, manchmal auch als Risikominderung bezeichnet, ist der Prozess der Berechnung des maximal akzeptablen Gesamtrisikos einer Aktivität unter Verwendung von Risikobewertungstechniken. Wenn es sich als übermäßig erweist, muss eine Strategie zur Minderung spezifischer individueller Risiken entwickelt werden, bis das kollektive Risikoniveau auf ein akzeptables Niveau reduziert ist.

Mehr erfahren

Was ist RTIM?

RTIM, auch bekannt als Real Time Interaction Manager oder Management, nutzt Echtzeit-Kundeninteraktionen, prädiktive Modellierung und maschinelles Lernen, um konsistente, personalisierte Kundenerlebnisse über alle Kanäle hinweg zu liefern.

Mehr erfahren

What is Semi-Structured Data?

Semi-structured data does not follow the format of a tabular data model or relational databases because it does not have a fixed schema. However, the data is not completely raw or unstructured, and does contain some structural elements such as tags and organizational metadata that make it easier to analyze.

Mehr erfahren

Was ist Sentiment-Analyse?

Sentiment Analytics, zu Deutsch Stimmungsanalyse, ist die Erfassung und Verfolgung von Meinungen, Emotionen oder Gefühlen, die von Verbrauchern ausgedrückt werden, die an verschiedenen Arten von Interaktionen beteiligt sind, wie z. B. Social Media-Posts, Kundendienstanrufe oder Umfragen.

Mehr erfahren

Was sind strukturierte Daten?

Strukturierte Daten beziehen sich auf Datensätze mit starker und konsistenter Organisation. Strukturierte Daten werden mit der Structured Query Language (SQL) verwaltet, mit der Anwender die Daten einfach durchsuchen und bearbeiten können.

Mehr erfahren

Was ist ein Terabyte?

Ein Terabyte (TB) ist eine relativ große Einheit digitaler Daten und entspricht 1.000 Gigabyte. Man geht davon aus, dass zehn Terabyte die gesamte gedruckte Sammlung der U.S. Library of Congress enthalten, während ein einzelnes TB 1.000 Kopien der Encyclopedia Brittanica umfasst.

Mehr erfahren

Was sind unstrukturierte Daten?

Unstrukturierte Daten beziehen sich auf ungefilterte Informationen ohne festes Organisationsprinzip. Sie werden oft auch als Rohdaten bezeichnet. Gängige Beispiele sind Webprotokolle, XML, JSON, Textdokumente, Bilder, Video- und Audiodateien.

Mehr erfahren

What are the V's?

Big data – and the business challenges and opportunities associated with it – are often discussed or described in the context of multiple V’s:

Mehr erfahren

Was ist VPC?

VPC stehen für Virtual Private Cloud. VPC ist ein persönlicher und privater virtueller Netzwerkbereich, der in einer Public Cloud-Umgebung gehostet wird. Jede VPC ist sicher und logisch von anderen virtuellen Netzwerken in derselben Public Cloud isoliert.

Mehr erfahren

Want to see these concepts in action?

Explore Vantage