2022年7月19日火曜日

GERMAN. Tableau, Snowflake und künstliche Intelligenz verändern die Regeln der Datennutzung - und erstellen aus 150 Millionen Vertriebsleistungsdaten flinke Dashboards. Anmerkung: ZOOM bietet auch einen Service an, der es Ihnen ermöglicht, einen Dolmetscher zu buchen, um innen- und außenpolitische Themen zwischen Regierungen auf der ganzen Welt auf der Grundlage solcher BIGDATA zu besprechen, oder um Geschäftstreffen zwischen Regierungen und Handelsunternehmen abzuhalten. Es ist auch eine gute Idee, auf Discord zu chatten, sowohl im Inland als auch im Ausland.

JAPAN.

ー--
ENGLISH.
---------

GERMAN.







~Erstellung eines leichtgewichtigen Dashboards aus 150 Millionen Verkaufsdaten




BI-Online-Bericht: Tableau und Snowflake ändern die Regeln der Datennutzung - Erstellen von leichtgewichtigen Dashboards aus 150 Millionen Verkaufsdatensätzen


Am 28. Oktober 2020 wurde das "[Webinar] Changing the Common Sense of Data Utilization with Tableau and Snowflake: Creating a Lightweight Dashboard from 150 Million Sales Data" bei der GEAL Corporation statt. Dies ist ein Bericht über den Inhalt des Seminars.




Einführung


Um Daten frei analysieren und nutzen zu können, bedarf es einfach zu bedienender Analysewerkzeuge für die Anwender. Das allein reicht jedoch nicht aus, um Daten zu analysieren. Es ist notwendig, die Daten selbst an einem Ort aufzubereiten, an dem sie frei von verschiedenen Zwängen sind. In diesem Seminar werden wir "Tableau" und "Snowflake" als Produkte vorstellen, die diese Beschränkungen aufheben. Tableau" ist ein BI-Tool, mit dem jeder auf einfache Weise beliebige Daten analysieren kann, und "Snowflake" ist ein Cloud-basierter Data-Warehouse-Service (DWH). Wir stellen Ihnen die Vorteile dieser Kombination von Gir vor, die sich bei der Implementierung für ihre Kunden bewährt hat.




Inhaltsübersicht


Teil 1: Aufzeigen der Herausforderungen der bisherigen Datennutzung und zukünftiger Datennutzungsszenarien


Teil II: Echte Datennutzung durch die Kombination von BI (Tableau)/AI (Einstein Analytics)


Teil III: Reduzierung der Datenlatenz auf Null - "Data Cloud", eine Infrastruktur, die den Fluss der Analyse nicht unterbricht


Zusammenfassung




Teil 1: Aufzeigen der Herausforderungen der bisherigen Datennutzung und zukünftiger Datennutzungsszenarien


<Dozent> Herr Mika Kamei, Abteilung Geschäftsentwicklung, Zeal Co.




Bisherige Datennutzung und Probleme


Als wir unsere Kunden zu ihren Problemen bei der Datennutzung befragten, antworteten viele, dass sie "nicht wissen, wie sie mit der Datenintegration fortfahren sollen, weil die Daten verstreut sind" und "gerne mit der Datennutzung beginnen würden, aber nicht wissen, wie sie vorgehen sollen.






Wir hören auch oft, dass es niemanden gibt, den man bezüglich der Datenanalyse und -nutzung konsultieren kann, oder dass mehrere Datensätze unterschiedliche Ergebnisse liefern, die schwer zu interpretieren sind.






Wir glauben, dass die Kombination von Tableau und Snowflake die Lösung für diese Probleme ist.


Tableau ist eine visuelle Analyseplattform, die es jedem ermöglicht, sehr leistungsstarke Analysen mit intuitiven Operationen durchzuführen. Eine der Stärken von Tableau ist die große Community. Selbst wenn Sie Probleme mit dem Produkt haben oder niemanden kennen, mit dem Sie sprechen können, können Sie einfach einen Freund finden und ihn um Hilfe bitten.






Snowflake ist ein vollständig verwaltetes, Cloud-natives Data Warehouse der nächsten Generation.


Es unterstützt mehrere Cloud-Dienste und bietet separate Speicher- und Rechenressourcen. Während herkömmliche Data Warehouses bei intensiver Verarbeitung eine allgemeine Leistungsverschlechterung erleiden, kann Snowflake bei intensiver Verarbeitung die erforderlichen Ressourcen dynamisch zuweisen, so dass Benutzer Snowflake nutzen können, ohne sich um die Leistung sorgen zu müssen.






Snowflake-Bildschirm für die Zuweisung der Data Ware-Größe




Wie die rote Linie in der Abbildung unten zeigt, kann Snowflake die Anzahl der zu verwendenden Cluster in Abhängigkeit von der Servergröße und der Anzahl der Verarbeitungen automatisch vergrößern oder verkleinern, so dass Sie den herkömmlichen Vorgang des ständigen Hochfahrens von Ressourcen im Voraus beenden können und immer über frische Daten in einer kostenoptimierten Umgebung verfügen. Dies ermöglicht eine Analyse und Datennutzung mit frischen Daten in einer kostenoptimierten Umgebung.






Das Sammeln von Daten in Snowflake ermöglicht einen Zugriff mit guter Leistung, so dass es nicht notwendig ist, nach verteilten Daten zu suchen", was eine der Herausforderungen bei der Datennutzung war, die zu Beginn dieses Artikels besprochen wurde, und es besteht keine Notwendigkeit, physische Karts zu erstellen, um die Leistung zu verbessern. Tableau ist einfach zu bedienen, einfach zu analysieren, einfach zu visualisieren und einfach zu teilen, so dass Sie schnell die Antworten finden, die Sie brauchen. Wenn Sie sich also fragen, wo Sie anfangen sollen, warum nicht mit diesen beiden Lösungen beginnen?




Eine kostenlose Testversion von Snowflake ist hier verfügbar. Sie können es jetzt 30 Tage lang kostenlos testen.


Bitte melden Sie sich über das unten verlinkte Formular an.






Teil 2: Echte Datennutzung durch Kombination von BI (Tableau)/AI (Einstein Analytics)


<Vortragender> Herr Kei Kuroi, Partner Account Manager, Tableau Software, LLC




Auf der dreitägigen Tableau-Konferenz am 7. Oktober wurde angekündigt, dass "Einstein Analytics" (Einstein Analytics) in Tableau CRM umbenannt wird. Ich werde den Inhalt dieser Präsentation und die neuen Auswirkungen der Kombination von Tableau und Snowflake vorstellen, und was dies bedeutet.




1. Warum ist es so schwierig, Daten organisationsübergreifend zu nutzen?


Es gibt einen bekannten Bericht des Ministeriums für Wirtschaft, Handel und Industrie (METI) mit dem Titel "The 2025 Cliff", der erklärt, warum die Datennutzung nicht vorankommt. Der Grund dafür ist, dass die bestehenden Systeme nach Geschäftsbereichen aufgebaut sind und eine unternehmensweite, organisationsübergreifende Datennutzung nicht ermöglichen.


Darüber hinaus funktioniert die Datennutzung nicht allein durch die Visualisierung von Daten. Tableau schlägt vor, dass der Prozess der Datennutzung auf diese Weise verändert werden sollte. Wir schlagen vor, dass Sie den Prozess der Datennutzung auf diese Weise ändern.


Im herkömmlichen Datennutzungsprozess werden Daten aus geschäftskritischen Systemen extrahiert, um Dokumente zu erstellen, aber ab dem Zeitpunkt der Extraktion verlieren die Daten ihre Frische. Das macht es schwierig, Entscheidungen auf der Grundlage aktueller und korrekter Informationen zu treffen.






Durch die direkte Verbindung mit Datenquellen wie unternehmenskritischen Systemen kann Tableau den Zyklus der Datenbetrachtung und der Verknüpfung mit Maßnahmen sehr schnell ablaufen lassen. Wir glauben, dass wir organisatorische Hindernisse überwinden können, indem wir den Prozess der Datennutzung wie in der Abbildung unten dargestellt ändern.






2. Wie man Erkenntnisse aus Geschäftssystemen gewinnt


Letztes Jahr wurde Tableau Teil von Salesforce. Salesforce hat eine Vision namens "Customer360". Dabei handelt es sich um ein System, das die digitale Transformation unserer Kunden unterstützt. Die Vision ist es, alle Kundenbelange mit einer Vielzahl von Technologien abzudecken, Kunden zentral zu betrachten und optimale Angebote zu machen.




In der folgenden Abbildung sind fünf typische interne Systeme aufgeführt. Von links nach rechts sind dies: ein Buchhaltungssystem, ein Prognosesystem, ein Produktionsmanagementsystem, ein System zur Verwaltung von Anfragedaten und ein Kundenmanagementsystem zur Verwaltung von Informationen zu Verkaufsaktivitäten und anderen Daten.


In der Regel verfügt jedes dieser internen Systeme über einen Mechanismus zur Visualisierung von Daten. Dies ermöglicht es uns, die für jedes System geschlossenen Daten zu verstehen, aber es erlaubt uns nicht, die Daten mit Daten aus anderen Systemen zu multiplizieren. Aus diesem Grund werden die Daten in CSV-Dateien exportiert, die dann in Tabellenkalkulationen zusammengestellt oder in Tableau visualisiert und vom Management herangezogen werden.


Aus den oben genannten Gründen sind die exportierten Dateien jedoch nicht aktuell, und selbst wenn Echtzeitinformationen nur in einigen Abteilungen verfügbar sind (in der Abbildung ist Sales Cloud anwendbar), sind die "multiplizierten Daten", die das Management sieht, nicht aktuell.




Als Lösung für dieses Problem empfehlen wir, Daten in Snowflake zu aggregieren und in Tableau zu analysieren.






Wenn Ihr Buchhaltungssystem beispielsweise anzeigt, dass die Außenstände steigen und nicht eingezogen werden, müssen Sie herausfinden, wo das Problem liegt. Wenn Sie sich SalesCloud ansehen, das die Vertriebsaktivitäten verwaltet, sehen Sie, dass mehrere Kunden mit ihren Zahlungen im Rückstand sind. Um das weiter zu untersuchen, schauen wir uns die ServiceCloud an, die die Anfragen verwaltet. Nach der Überprüfung stellen wir fest, dass es ein Problem mit einem bestimmten Produkt gibt, und in einigen Fällen wurde das Produkt nicht geprüft. Da dies bedeutet, dass es ein Qualitätsproblem gibt, überprüfen wir das Produktionskontrollsystem. Dieses Mal konnten wir ein bestimmtes Teil oder eine bestimmte Charge identifizieren, die das Qualitätsproblem verursacht hat. Als Nächstes wird das System zur Vorhersage und Kontrolle der tatsächlichen Produktion überprüft. Wir können die Hypothese aufstellen, dass die Qualitätsprobleme durch den Druck auf den geplanten Wert entstanden sein könnten.




Durch den Einsatz von Tableau und Snowflake zur Verknüpfung der verschiedenen Geschäftssysteme lassen sich auf diese Weise Erkenntnisse aus einer Vielzahl von Daten gewinnen.






3. Mit Tableau und Snowflake erstellte Datenwertschöpfungskette


Die Abbildung unten zeigt das neue Tableau Lineup.


Einstein Analytics" (Einstein Analytics) ist ein Tableau CRM.


Einige von Ihnen nutzen dieses Produkt vielleicht schon seit einiger Zeit, aber Sie können sicher sein, dass sich nur das Branding ändert und die Funktionen und Preise gleich bleiben.






Die einzelnen Produkte von Tableau werden im Folgenden erläutert.


Tableau Prep Builder : Verbindet sich mit verschiedenen Datenquellen und bereinigt (verarbeitet und formatiert) Daten.


Tableau Desktop: Verbindung zu Daten und Gewinnung von Einblicken durch visuelle Analyse.


Tableau Server / Online: Teilen Sie Erkenntnisse mit Ihrem Team, berichten Sie Ihrem Vorgesetzten und leiten Sie sie an andere Abteilungen weiter.


Tableau-Katalog: Katalogisieren Sie Ihre Datenbestände unter Tableau-Verwaltung. Er erleichtert die Suche, das Management und die Verwaltung der Historie.


Tableau Prep Conductor: Automatisiert die Abläufe des Tableau Prep Builders (Flow).






Einstein Analytics und Tableau sind separate Produkte, aber wir planen, sie in Zukunft zu integrieren. Zunächst werden wir mit der Integration und Verknüpfung der KI/ML- und Datenebenen beginnen.






Es wurde eine Roadmap angekündigt, um schließlich alle Schichten zu integrieren.






Die folgenden drei Funktionen sind konkrete Beispiele für die Integration von KI/ML und Datenebenen.




Dashboard-Erweiterungen: Zugriff auf Echtzeit-Vorhersageergebnisse aus Dashboards


Analytische Berechnungen: Echtzeit-Prognosen in Viz einbetten


Tableau Vorbereitung: Hinzufügen von Prognosewerten zu Datasets


Jeder dieser Punkte wird im Folgenden erläutert.




Dashboard-Erweiterungen: Zugriff auf Echtzeit-Prognoseergebnisse über das Dashboard




In der Abbildung unten ist die linke Seite das Tableau Dashboard und die rechte Seite Einstein.


Die 31 % auf der rechten Seite zeigen die Möglichkeit an, dass sich die Sendungen verzögern, und darunter lautet die Frage: Was sind die Ursachen für die Verzögerung? Was sind die Faktoren, die die Lieferung beschleunigen können? Dies ist der Grund für die Verzögerung. Die Ergebnisse der Einstein-Analyse verschiedener Prognosedaten werden auf diese Weise angezeigt, so dass Sie schnell den nächsten Schritt unternehmen können.






Analytics Calc: Echtzeit-Prognosen eingebettet in Viz




Das Scatterplot rechts unten in der Abbildung zeigt Tableau CRM mit einer Berechnungsformel aus einem Tableau-Arbeitsblatt. Derzeit gibt es Mechanismen, um externe Funktionen wie Python oder R aufzurufen, aber der gleiche Mechanismus ist implementiert.






Tableau Vorbereitung: Hinzufügen von Prognosezahlen zum Dataset




Eine Funktion, um Daten an ein Prognosemodell zu übergeben und die Ergebnisse zu erhalten, wurde zum Tableau Prep Flow hinzugefügt. Sie können ein Prognosemodell auswählen, das im Voraus erstellt wurde, so dass Sie Daten vorbereiten können, die die Ergebnisse des Prognosemodells enthalten, ohne die Details des Prognosemodells kennen zu müssen.






Je mehr Vorhersagen Sie machen können, desto einfacher ist es, auf Veränderungen zu reagieren. Im nächsten Schritt zeigen wir Ihnen, wie Sie das machen.






Verbinden Sie Desktop und Prep mit Snowflake, um die Daten zu bereinigen. Übergeben Sie sie dann an Tableau CRM, um die Prognosedaten zu erstellen. Laden Sie die Daten mit den Vorhersagedaten in Tableau Online hoch, und schon haben Sie einen Datensatz mit historischen und zukünftigen Daten. Analysten können diese Daten in Tableau Desktop analysieren, Mitarbeiter im Außendienst können eine Verbindung zu Tableau Online herstellen, oder in einigen Fällen kann Salesforce in das Kundenportal eingebettet werden, und Benutzer des Portals können diese Online-Daten indirekt anzeigen. Die Realität des zugrunde liegenden Datensatzes ist, dass es sich nicht nur um einen Datensatz handelt. Bei dem zugrunde liegenden Datensatz handelt es sich in Wirklichkeit um Snowflake, das Daten von SAP, Anaplan und anderen sammelt. Auf diese Weise können Sie die Daten, die Sie für Ihre verschiedenen Vorgänge verwenden, auf horizontale Weise betrachten.


Jeder, der Tableau Creator, Tableau CRM und Snowflake besitzt, kann damit beginnen.




Teil 3: Data Cloud, eine Infrastruktur, die den Fluss der Analyse nicht unterbricht


<Vortragender> Herr KT, Senior Sales Engineer, Snowflake K.K.




Im dritten Teil dieser Session geht es um Snowflake und was Snowflake kann und was es auf diesem Markt erreichen will.


Da Tableau in der vorangegangenen Sitzung vorgestellt wurde und ich bis Mai 2020 auch ein Mitarbeiter von Tableau war, werde ich, bevor ich über Snowflake spreche, den [visuellen Analysezyklus] vorstellen, der die Schritte veranschaulicht, "wie Menschen Daten verstehen", wie von Tableau vorgeschlagen. Hier ist ein Diagramm. Das Diagramm ist eine einfache Darstellung dessen, wie es aussieht, wenn Menschen Daten nutzen.






Es gibt verschiedene Aufgaben, z. B. die Nutzung von Daten zur Verbesserung von Umsatz und Gewinn, zur Kostensenkung usw. Um diese Aufgaben zu lösen, überlegen wir, welche Art von Daten wir erfassen, in welchem Diagramm wir sie darstellen und schließlich mit jemandem teilen, um ihn zum Handeln zu bewegen. Jede dieser Aktionen sollte nicht zu lange dauern und langsam erscheinen. Die Zeit, die wir mit Warten verbringen, unterbricht unseren Gedankenfluss. Deshalb ist es sehr wichtig, wie schnell wir jeden dieser Schritte ausführen können, ohne zu warten.




Eines Tages finden wir uns in einer Welt wieder, die sich plötzlich drastisch verändert hat.


Aufgrund der Ausbreitung des neuen Coronavirus wurde in Japan im April 2020 der Notstand ausgerufen, der viele Menschen dazu zwang, zu Hause zu bleiben. Auf der ganzen Welt wurden Abriegelungsmaßnahmen ergriffen, und die Menschen auf der ganzen Welt durften nicht mehr nach draußen gehen. Aber wenn man zu Hause bleibt, weiß man nicht, was draußen vor sich geht, und man hat nicht das Gefühl, dass sich die Infektion ausbreitet. Was sollten wir also tun? Um diese Frage zu beantworten, haben wir versucht, mit Hilfe von Daten herauszufinden, was wir nicht sehen können, und auf Tableau Public gibt es viele Berichte von Freiwilligen zum Thema Coronavirus. Verschiedene Menschen auf der ganzen Welt haben diese Anstrengungen unternommen, um herauszufinden, ob wir etwas gegen diese Situation tun können und ob wir etwas dagegen tun können. Hinter diesen leicht verständlichen Visualisierungen verbarg sich jedoch eine stetige und beharrliche Arbeit, die an der Oberfläche nicht zu erkennen war.






Die Informationen über die Zahl der mit Coronaviren infizierten Personen wurden zusammengestellt, wobei die Daten täglich angepasst wurden, da die Methode der Datenerfassung plötzlichen Änderungen unterworfen war. Es ist nicht die Aufgabe des Gesundheitsamtes, Daten über infizierte Personen zusammenzustellen. Wären die Daten automatisch erfasst worden, sähe die Sache ganz anders aus. Leider wurde jedoch ein großer Teil der Daten manuell erfasst und übermittelt. Dadurch wäre die ursprüngliche Aufgabe der Inspektion erschwert worden. Allein die Datenerfassung hätte die zu erledigende Arbeit beeinträchtigt.




Wir waren also weit davon entfernt, Daten nutzen zu können, um die Dinge in unserer Welt zu kennen, aber wir waren auch weit davon entfernt, Daten nutzen zu können, um die Dinge in unserer Welt zu kennen. Es ist sehr einfach, Daten mitzubringen oder zu beschaffen. Wir mussten jedoch feststellen, dass die Daten, die wir abrufen wollten, gar nicht vorhanden waren, was eine große Herausforderung darstellte.




Unser Auftrag: Jedes Unternehmen zu befähigen, datengesteuert zu arbeiten


Solange wir leben, generieren wir täglich Daten, einfach dadurch, dass wir existieren.


Wir surfen auf Websites, loggen uns in Systeme ein, "liken" soziale Netzwerke wie Facebook und verschicken Umfragen, ohne uns dessen bewusst zu sein, dass wir dabei Daten erzeugen. In jedem Fall erzeugen wir, solange wir leben, eine Vielzahl von Daten. In vielen Fällen sind wir uns nicht einmal bewusst, wie diese Daten verwendet werden. Daten, von denen man nicht einmal weiß, dass sie erzeugt wurden, werden irgendwie von einigen wenigen Unternehmen gespeichert, die sich mit Daten auskennen, und ehe man sich versieht, werden sie ohne das eigene Wissen verwendet. Wir müssen uns bewusst sein, dass die von uns erzeugten Daten uns gehören. Die Welt steht jetzt an einem wichtigen Scheideweg. Entweder wird die Welt datengesteuert, mit Organisationen und Einzelpersonen, die ihre eigenen Daten verwalten und nutzen und den Geschäftswert auf ethische Weise steigern können, wobei der Wille und die Würde des Dateneigentümers respektiert werden, oder die Daten werden von einer sehr begrenzten Anzahl von Organisationen genutzt, die im Umgang mit Daten erfahren sind, und diejenigen, die zu anderen Organisationen gehören, werden sich selbst überlassen. Dies ist ein wichtiger Wendepunkt in der Welt, in der wir in eine disparate Gesellschaft eintreten, in der nur eine begrenzte Anzahl von Menschen von den Daten profitiert.


Die vielfältigen Möglichkeiten der Datennutzung sind für alle Organisationen. Wir wollen einen Ort schaffen, an dem jeder Daten nutzen kann und nicht nur einige wenige. Der Grund, warum dies derzeit nicht geschieht, ist, dass es zu schwierig ist, Daten zu nutzen. Deshalb haben wir Snowflake entwickelt, um jedes Unternehmen datengesteuert zu machen und die Arbeit mit Daten für jeden einfach zu gestalten.




Eine Datenwolke für jedes Unternehmen


Wir bieten eine Daten-Cloud, die jedes Unternehmen nutzen kann. Dies ist ein Ort, an dem Daten sauber, ungepflegt und umfangreich sein können und von einer beliebigen Anzahl von Personen in jeder Situation genutzt werden können. Wenn Ihre Daten an einem Ort in einer Datenwolke gesammelt werden können und die Wartung auf ein Minimum reduziert werden kann, wird die Datenverwaltung viel einfacher. Wir streben eine Welt an, in der Menschen miteinander zusammenarbeiten können, ohne sich um die Datenverwaltung kümmern zu müssen.




Zunächst einmal: Warum können wir Daten nicht nutzen, wenn wir sie nutzen wollen? Hierfür gibt es drei Herausforderungen.




Drei große Herausforderungen


1. Herkunft der Daten


  Verschiedene Daten kommen von verschiedenen Orten, in verschiedenen Formen und Mengen und erfordern unterschiedliche Fähigkeiten und Einfallsreichtum, um sie schnell zu verarbeiten.


2. Siloing


  Daten können aufgrund der verschiedenen Orte, an denen sie erzeugt werden, leicht zu Silos werden. Darüber hinaus kann es vorkommen, dass Daten, nachdem sie einmal integriert wurden, aus Leistungsgründen in einen Data Mart umgewandelt werden, wodurch erneut siloartige Daten entstehen können.


3. Hürden für die gemeinsame Nutzung von Daten


  Wenn Daten mit anderen Organisationen geteilt werden, müssen die Daten dupliziert und an sie gesendet werden. Wenn Daten, die einmal geschützt werden sollten, erneut an einen anderen Ort gesendet werden, müssen die Sicherheitseinstellungen in Bezug auf den Speicherort der Daten und die Kommunikationsmethoden erneut überprüft werden. Die Übermittlung umfangreicher Daten oder die Verknüpfung von Daten, die häufig aktualisiert werden, ist mit enormen Kosten verbunden.




Man ging davon aus, dass riesige Hardwareressourcen genügen, um die an verschiedenen Orten verstreuten Daten flexibel zu verarbeiten. Man dachte also, dass die Cloud, die selbst riesige Ressourcen sofort nutzen kann, die oben genannten Probleme lösen würde. Aber das hat nicht geklappt. Es klappte nicht, weil es nur zwei Arten von Clouds gab


Anwendungs-Clouds.


  Zum Beispiel Salesforce.


Infrastruktur-Wolke


  Zum Beispiel AWS oder Azure.




Schließlich ist es schwierig, Daten in der aktuellen Cloud-Umgebung allein zu betrachten. Es sind komplexe Schritte erforderlich, um die von den Anwendungen generierten Daten zu integrieren und zu berechnen, damit die Daten angezeigt werden können. Unser Problem war, dass ein einfacher Ort in der Cloud-Umgebung, an dem die Daten verarbeitet werden, keine effiziente Nutzung der Cloud-Ressourcen darstellt. Wir wollen dieses Problem so leicht und einfach wie möglich machen. Um die Daten für alle verfügbar zu machen, unabhängig davon, wo sie sich befinden, streben wir einen Zustand an, in dem sie als Puffer zwischen der Anwendungswolke und der Infrastrukturwolke als Datenwolke existieren. Um dies zu erreichen, halten wir eine Multi-Cloud- und Multi-Regionen-Architektur für sehr wichtig, damit die Daten unabhängig von ihrem Speicherort verknüpft werden können.






Architektur zur Unterstützung von Datenwolken




Der Speicher wird an einem Ort konsolidiert, an den Rechenressourcen individuell angeschlossen werden können. Für den Zugriff auf die gespeicherten Daten kann eine beliebige Anzahl von Computerressourcen erstellt werden. Dennoch ist die Architektur von Snowflake so konzipiert, dass es zu keinerlei Konflikten kommt, egal wie viele Computerressourcen gleichzeitig auf die an einem Ort integrierten Daten zugreifen.






Es kann zu Beginn eine kleine Datenmenge verarbeiten und wächst dann mit der Zeit, wenn die Datenmenge wächst. Mit zunehmender Größe des Warehouse wird die Verarbeitungszeit immer kürzer. Die Kosten sind die Zeit, in der der Prozess läuft, und die Leistung. Wenn zum Beispiel ein Prozess, der bei Größe XS 16 Minuten dauert, bei Größe XL in 1 Minute verarbeitet werden kann, ist der Betrag derselbe. Wenn Sie für das gleiche Geld 1/16 der Geschwindigkeit bekommen können, sollten Sie die schnellere Variante wählen.




Normalerweise ist Snowflake sicher, aber wenn Sie einen Teil Ihrer Daten für die Außenwelt freigeben oder diese Daten nur einer bestimmten Person zur Verfügung stellen möchten, können Sie dies tun. Sie können Ihre Daten an einem Ort speichern, ohne sie irgendwohin zu kopieren, und ein anderer Benutzer kann auf die Daten aller zugreifen, indem er das Lagerhaus benutzt, das diese Person hat. Das ist die Funktion der gemeinsamen Datennutzung. Es gibt auch Datenmarktplätze, die sich diese Funktion zunutze machen und auf denen Datenanbieter ihre Daten wie auf einem Marktplatz anbieten können. Echtzeitinformationen über neue Coronaviren werden beispielsweise auf dem Datenmarktplatz kostenlos zur Verfügung gestellt und von Forschungseinrichtungen, der medizinischen und pharmazeutischen Industrie sowie von Regierungen in aller Welt genutzt. Dies ist eine revolutionäre Art der gemeinsamen Nutzung von Daten, die nur möglich ist, weil so viele Lagerhäuser darauf zugreifen können.




Aufgrund dieser Funktionen und unserer Vision haben wir inzwischen über 3.000 Kunden, die Snowflake als Dateninfrastruktur nutzen.




Wir hoffen, mit Ihnen zusammenzuarbeiten, um eine Umgebung zu schaffen, in der jeder von Ihnen so kreativ sein kann, wie er möchte, und um allen Ihren Organisationen zu helfen, datengesteuert zu werden.




Fazit


Wir hören oft den Begriff "Self-Service-BI", und ich glaube, dass Tableau das Produkt ist, das den Weg für Self-Service-BI bereitet hat. Der beste Ort für die Datenaufbereitung ist wahrscheinlich Snowflake, das Cloud-basiert ist und die Grenzen von Anbietern überschreitet. Dies ist die beste Kombination von Produkten, die zur freien Nutzung von Daten benötigt wird. Beginnen Sie klein mit einer Kombination aus beiden Produkten für datengesteuertes Management. Wenn Sie Interesse haben, kontaktieren Sie uns bitte.




LOGO


Datenverwendung


Datenverwaltung


Offene Daten


Produkt-Testimonials


Interviews


Berichte


Nachrichten


Über diese Website


Nutzungsbedingungen


Datenschutzrichtlinien


Kontakt


Zurück zum Anfang der Seite

0 コメント:

コメントを投稿