Galerie de cartes mentales Service de journaux Alibaba Cloud SLS
Simple Log Service (SLS) est une plateforme cloud d'observation et d'analyse native qui fournit des services de plateforme en temps réel à grande échelle et à faible coût pour les données de journal/métrique/trace et autres. Il fournit des fonctions centralisées de collecte, de traitement, d'analyse, de visualisation d'alarmes et de livraison de données, améliorant considérablement les capacités numériques des scénarios de R
Modifié à 2024-01-13 15:13:18Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
Cent ans de solitude est le chef-d'œuvre de Gabriel Garcia Marquez. La lecture de ce livre commence par l'analyse des relations entre les personnages, qui se concentre sur la famille Buendía et raconte l'histoire de la prospérité et du déclin de la famille, de ses relations internes et de ses luttes politiques, de son métissage et de sa renaissance au cours d'une centaine d'années.
La gestion de projet est le processus qui consiste à appliquer des connaissances, des compétences, des outils et des méthodologies spécialisés aux activités du projet afin que celui-ci puisse atteindre ou dépasser les exigences et les attentes fixées dans le cadre de ressources limitées. Ce diagramme fournit une vue d'ensemble des 8 composantes du processus de gestion de projet et peut être utilisé comme modèle générique.
Service de journaux Alibaba Cloud SLS
Présentation du produit
Log Service SLS est une plateforme cloud d'observation et d'analyse native qui fournit des services de plateforme en temps réel à grande échelle et à faible coût pour les données de journaux, métriques, de trace et autres. Le service de journalisation fournit des fonctions centralisées telles que la collecte, le traitement, l'interrogation et l'analyse des données, la visualisation, les alarmes, la consommation et la livraison, améliorant ainsi de manière globale vos capacités numériques en matière de R&D, de maintenance, d'exploitation, de sécurité et d'autres scénarios.
Présentation des fonctionnalités
collecte de données
Il prend en charge les types de données tels que Log, Metric et Trace, et prend en charge plus de 50 sources de données, notamment les produits, serveurs et applications Alibaba Cloud, les appareils IoT, les terminaux mobiles, les logiciels open source, les protocoles standard, etc.
Stockage des journaux
Prend en charge le stockage hiérarchisé intelligent. Lorsque les données sont stockées en couches, cela peut réduire vos coûts de stockage à long terme tout en garantissant que les capacités de requête, d'analyse, de visualisation, d'alarme, de livraison et de traitement des journaux ne sont pas affectées.
traitement de l'information
Il fournit plus de 200 fonctions intégrées, plus de 400 expressions régulières et des fonctions personnalisées flexibles pour obtenir des effets tels que le filtrage, le fractionnement, la conversion, l'enrichissement et la copie, et répond à des scénarios tels que la distribution, la régularisation et la fusion de données.
Requête et analyse
Il prend en charge les requêtes et l'analyse en temps réel des données au niveau PB, fournit plus de 10 opérateurs de requête, plus de 10 fonctions d'apprentissage automatique, plus de 100 fonctions SQL et prend en charge les versions SQL planifiées et exclusives SQL.
Visualisation
Il prend en charge la visualisation des résultats de requêtes et d'analyses, fournit plus de 10 types de graphiques statistiques, notamment des tableaux, des graphiques linéaires, des histogrammes, des cartes, etc., et prend en charge des tableaux de bord personnalisés basés sur des graphiques statistiques (prend en charge l'analyse intégrée et approfondie).
Alarme
Fournit des fonctions d'alarme à guichet unique, y compris la surveillance des alarmes, la gestion des alarmes, la gestion des notifications (actions), etc., adaptées à plusieurs scénarios tels que l'exploitation et la maintenance du développement, l'exploitation et la maintenance informatiques, l'exploitation et la maintenance intelligentes, l'exploitation et la maintenance de la sécurité, et exploitation et maintenance des entreprises.
Consommation et livraison
Prend en charge la consommation de données en temps réel, adaptée à la consommation Storm, à la consommation Flume, à la consommation Flink et à d'autres scénarios ; prend en charge la livraison de données en temps réel, adaptée à la fourniture de données à OSS, TSDB et autres produits cloud.
Audit du journal
Sur la base de l'héritage de toutes les fonctions du service de journalisation existant, il prend également en charge la collecte automatisée et centralisée en temps réel des journaux de produits cloud sous plusieurs comptes et audits, ainsi que le stockage, les requêtes et le résumé des informations requis pour l'audit.
Caractéristiques
collecte de données
Prend en charge la collecte de journaux, de données de séries chronologiques et de données de liaison liées aux serveurs et aux applications.
Prend en charge la collecte des journaux des appareils IoT.
Prend en charge la collecte des journaux de produits Alibaba Cloud.
Prend en charge la collecte de données mobiles.
Prend en charge la collecte de données à partir de logiciels open source tels que Logstash, Flume, Beats, FluentD, Telegraf, etc.
Prend en charge l'accès aux données via des protocoles standard tels que HTTP, HTTPS, Syslog, Kafka et Prometheus.
Requête et analyse
Prend en charge les requêtes précises, les requêtes floues, les requêtes en texte intégral et les requêtes sur le terrain.
Prend en charge les requêtes contextuelles, le clustering de journaux, LiveTail, la reconstruction d'index et d'autres fonctions.
Prend en charge la syntaxe standard SQL 92.
Fournit des instances exclusives SQL.
traitement de l'information
Conservation des données : effectuez l'extraction de champs et la conversion de format pour les journaux dans des formats chaotiques, et obtenez des données structurées pour prendre en charge le traitement ultérieur des flux et les calculs de l'entrepôt de données.
Enrichissement des données : effectuez des jointures de champs (JOIN) sur les journaux (tels que les journaux de commandes) et les tables de dimensions (telles que les tables d'informations utilisateur) pour ajouter davantage d'informations dimensionnelles aux journaux pour l'analyse des données.
Flux de données : transmettez les journaux des régions d'outre-mer vers les régions centrales via la fonction d'accélération globale pour obtenir une gestion centralisée des journaux mondiaux.
Désensibilisation des données : désensibilisez les informations sensibles telles que les mots de passe, les numéros de téléphone mobile et les adresses contenues dans les données.
Filtrage des données : filtrez les journaux des services clés pour une analyse ciblée.
Consommation et livraison
Prend en charge la consommation de données via des logiciels tiers tels que Splunk, QRadar, Logstash et Flume.
Prend en charge la consommation de données via Java, Python, GO et d'autres langages.
Prend en charge la consommation de données via les produits Alibaba Cloud tels que l'informatique fonctionnelle, l'informatique en temps réel et la surveillance du cloud.
Prend en charge la consommation de données via des plates-formes informatiques de streaming telles que Flink, Spark et Storm.
Prend en charge la livraison de données vers OSS, MaxCompute, AnalyticDB, TableStore et d'autres produits Alibaba Cloud.
Visualisation
Graphiques intégrés dans le tableau de bord : Log Service vous fournit une variété de graphiques statistiques tels que des tableaux, des graphiques linéaires et des graphiques à barres. Vous pouvez sélectionner les types de graphiques appropriés pour afficher les résultats de requête et d'analyse en fonction de vos besoins d'analyse, et enregistrer les résultats. résultats au tableau de bord.
Outils de visualisation tiers : Log Service prend en charge la connexion directe avec des graphiques tiers tels que Grafana et DataV.
Alarme
Surveillance des alarmes : prend en charge les résultats réguliers d'inspection, d'évaluation, de requête et d'analyse via des règles de surveillance des alarmes, déclenche des alarmes ou des notifications de récupération et les envoie au système de gestion des alarmes.
Gestion des alarmes : prend en charge le routage, la suppression, la déduplication, la mise au silence, la fusion et d'autres opérations pour les alarmes reçues via des politiques d'alarme, puis les envoie au système de gestion des notifications (actions).
Gestion des notifications (actions) : prend en charge l'attribution dynamique des alarmes à des canaux de notification spécifiques via des politiques d'action, puis informe les utilisateurs cibles, les groupes d'utilisateurs ou les groupes de service.
Audit du journal
Prend en charge la collecte automatisée et centralisée en temps réel des journaux de produits cloud sous plusieurs comptes et audits.
Couvrant les bases (ActionTrail, version Container Service Kubernetes), le stockage (OSS, NAS), le réseau (SLB, passerelle API), la base de données (base de données relationnelle RDS, base de données distribuée native cloud PolarDB-X, base de données cloud native PolarDB MySQL), la sécurité (WAF , protection DDoS, pare-feu cloud, centre de sécurité cloud) et autres produits cloud.
Prend en charge l'amarrage gratuit avec d'autres produits écologiques ou son propre centre SOC.
Des centaines de règles d'alarme intégrées prennent en charge l'activation en un clic, couvrant la surveillance de la conformité dans tous les aspects tels que la sécurité des comptes, la gestion des autorisations, le stockage, l'hôte, la base de données, le réseau, les journaux, etc.
Architecture du produit et avantages
architecture du produit
Avantages du produit
accès unifié
Prend en charge plusieurs types d’accès aux données à partir de plusieurs sources.
intelligent
Fournissez des fonctionnalités AIOps complètes et prenez en charge des capacités intelligentes de détection des anomalies et d’analyse des causes profondes.
Efficace
Fournit des capacités de collecte, d’interrogation et d’analyse en temps réel pour des centaines de milliards de données.
guichet unique
Fournir des fonctions de données à guichet unique, y compris la collecte, le traitement, l'interrogation et l'analyse des données, la visualisation, les alarmes, etc.
élasticité
Fournit une évolutivité élastique des données au niveau PB.
faible coût
Prend en charge le paiement à l'utilisation. Vous ne payez que ce que vous utilisez réellement, réduisant ainsi le coût total de possession (TCO) de plus de 50 %.
Scénarios d'application
Collecte et consommation de données
Grâce à la fonction LogHub du service de journalisation, diverses données de journal en temps réel (notamment Metric, Event, BinLog, TextLog, Click, etc.) sont accessibles à grande échelle et à faible coût.
Facile à utiliser : fournit 50 méthodes de collecte de données en temps réel, vous permettant de créer rapidement une plate-forme ; de puissantes capacités de gestion de configuration réduisent la charge d'exploitation et de maintenance.
Mise à l'échelle élastique : qu'il s'agisse de pics de trafic ou de croissance de l'entreprise, elle peut facilement y faire face.
Nettoyage des données et flux informatique (ETL/Stream Processing)
Log Hub (LogHub) prend en charge l'amarrage avec divers services informatiques et services en temps réel, fournit une surveillance complète des progrès, des alarmes et d'autres fonctions, et peut réaliser une consommation personnalisée basée sur le SDK/API.
Facile à utiliser : fournit un SDK et un cadre de programmation riches, se connecte de manière transparente à divers moteurs de calcul de flux.
Surveillance et alarme : fournit des données de surveillance riches et un mécanisme d'alarme retardé.
Mise à l'échelle élastique : élasticité au niveau PB, 0 latence.
Dockage de l'entrepôt de données (Data Warehouse)
La fonction LogShipper peut fournir des données du LogHub aux services de stockage. Le processus prend en charge divers formats de stockage tels que la compression, la partition personnalisée et les lignes et colonnes.
Données massives : il n'y a pas de limite supérieure à la quantité de données.
Types riches : prend en charge divers formats de stockage tels que les lignes, les colonnes, TextFile, etc.
Configuration flexible : prend en charge la partition définie par l'utilisateur et d'autres configurations.
Enregistrez les requêtes et les analyses en temps réel
L'analyse des requêtes en temps réel (LogAnalytics) peut indexer les données dans LogHub en temps réel et fournir des méthodes de requête riches telles que les mots-clés, le flou, le contexte, la plage et l'agrégation SQL.
Fortes performances en temps réel : vous pouvez l'interroger après l'écriture.
Massif et peu coûteux : prend en charge la capacité d'indexation PB/Day, le coût est de 15 % de la solution auto-construite.
Fortes capacités analytiques : prend en charge plusieurs méthodes de requête et SQL pour l'analyse d'agrégation, et fournit des fonctions de visualisation et d'alarme.