Outils décisionnels et analytiques
-
Actualités
28 oct. 2024
Process mining : les grands groupes français de plus en plus séduits par Celonis
Alors qu’il déploie sa plateforme chez une majorité des entreprises du CAC40, Celonis espère étendre sa présence dans un plus grand nombre d’entités au sein des grands groupes français en couvrant davantage les processus liés à la logistique et à la production. Lire la suite
-
Actualités
25 oct. 2024
« Process Intelligence Graph » : Celonis met de l’huile dans les rouages de sa plateforme
Alors qu’il promeut une nouvelle approche du process mining permettant d’obtenir une vision à 360 degrés des processus d’une entreprise, sous le capot, Celonis doit renforcer les composants clés de sa plateforme. Lire la suite
- Analyse automatisée des menaces –Livre Blanc
- Un réseau unique proposant des capacités locales à l'échelle globale –Webcast
- PROTECTION DES ENDPOINTS –Livre Blanc
-
Dans ce numéro:
- Magazine Information Sécurité 30 : Là où commencent les cyberattaques
- Chakib Gzenayi : « L’EASM est important, mais le renseignement est plus important que tout »
- Michelin face à la problématique de gestion de la surface d’attaque exposée
-
Actualités
29 juil. 2016
IBM Graph : Big Blue ajoute le modèle graphe à Bluemix
IBM rend accessible les projets Titan et TinkerPop dans un service Bluemix de base de données en graphe. Lire la suite
-
Definition
28 juil. 2016
Métadonnées
Les métadonnées sont des données qui en décrivent d'autres. Dans la plupart de ses usages informatiques, le préfixe méta signifie « définition ou description de référence ». Lire la suite
-
Definition
28 juil. 2016
Algorithme
Un algorithme est une procédure ou une formule qui permet de résoudre un problème. Lire la suite
-
Definition
26 juil. 2016
Analytique Big Data
L'analytique du Big Data est le processus qui consiste à examiner des ensembles de données volumineux contenant des types de données hétérogènes pour découvrir des schémas cachés, des corrélations inconnues, les tendances du marché, les préférences des utilisateurs et d'autres informations exploitables. Lire la suite
-
Actualités
25 juil. 2016
Think Big (Teradata) renforce son offre de services Big Data
La société rachète le Britannique Big Data Partnership pour compléter son portefeuille de services et étendre son empreinte internationale. Lire la suite
-
Definition
25 juil. 2016
Data Exploration
Première étape de l'analyse des données, l'exploration des données (Data Exploration) consiste à synthétiser les principales caractéristiques d'un ensemble de données. Si on utilise couramment des outils analytiques graphiques, le recours à des logiciels statistiques plus évolués comme R est également possible. Lire la suite
-
Definition
25 juil. 2016
GRC
Les solutions de gestion de la gouvernance, des risques et de la conformité (GRC) permettent aux sociétés cotées en bourse d'intégrer et de gérer les opérations informatiques soumises à réglementation. Les logiciels de ce type réunissent dans une seule solution intégrée des applications capables d'assurer les principales fonctions de GRC. Lire la suite
-
Projet IT
08 juil. 2016
Comment Hagleitner a créé de la valeur en mettant du Big Data dans les WC
Cette PME industrielle a réalisé une transformation numérique radicale en repensant entièrement son offre, en la rendant « smart » avec Siemens, et en s’appuyant sur HANA dans le Cloud pour l’analyse de données. Et entrer ainsi dans l’ère du prédictif, de l’IoT et du service client en temps réel. Lire la suite
-
Conseil
07 juil. 2016
Audits de licences SAP : trois conseils pour éviter les mauvaises surprises
Pour éviter les pièges de ce qu’il appelle les « abus de l’audit de licences », l’USF travaille sur un livre blanc dont il dévoile en avant-première les premiers conseils face à des pratiques qu’il considère comme de plus en plus « agressives » et « contestables ». Lire la suite
-
Conseil
06 juil. 2016
Les concurrents de Splunk
Face au succès de Splunk, la concurrence s’organise. Si vous souhaitez réaliser des comparatifs ou des POCs, voici les principaux concurrents à retenir. Lire la suite
-
Conseil
06 juil. 2016
Splunk : atouts et limites
Le succès de Splunk s’explique par sa simplicité et sa rapidité de mise en œuvre. Mais l’outil a aussi quelques limites qu’il convient de connaître. Lire la suite
-
Projet IT
06 juil. 2016
La Formule E diffuse ses données avec Riak
Le championnat du monde de monoplaces électriques est suivi par des millions de fans à la TV, sur les réseaux sociaux et sur applications mobiles. C’est le français Intellicore qui assure la diffusion des informations sur la course, en temps réel, grâce à une infrastructure qui s’appuie sur la base NoSQL Riak TS et sur des développements en Erlang. Lire la suite
-
Conseil
05 juil. 2016
Les nouveaux usages de Splunk : de l’analytique prédictif au SIEM nouvelle génération
Historiquement, Splunk a été utilisé pour surveiller les infrastructures, accélérer les développements et offrir de la visibilité sur les applications production. Mais ses usages évoluent. Lire la suite
-
Conseil
04 juil. 2016
Splunk : une plateforme, plus qu’un logiciel
La grande force de Splunk est son ouverture. Splunk est en effet une plateforme ouverte sur laquelle chacun peut venir bâtir ses propres applications et extensions. Et générer ses propres tableaux de bord. Lire la suite
-
Guide
04 juil. 2016
Comment l’IT révolutionne la gestion des Ressources Humaines
Ce Guide Essentiel revient sur les bases du HCM, sur ses nouveaux fondements et sur les facteurs de à prendre en compte avant de choisir une solution. Il aborde également les évolutions en cours avant d’illustrer ces transformations par des cas concrets (chez Alcatel-Lucent, la SNCF ou Sanofi). Lire la suite
-
Conseil
01 juil. 2016
Splunk : le point sur l’architecture et le langage SPL
Cet article revient sur la mécanique qui se cache derrière Splunk, la plateforme analytique spécialisée dans les données « machines » et sur son langage propre, SPL. Lire la suite
-
Guide
01 juil. 2016
Tout ce qu’il faut savoir sur Splunk
L’une des singularités de Splunk est d’être un produit purement IT mais qui rend directement aujourd'hui service aux métiers. Le point sur le succès de cette solution qui est, au final, plus une plateforme qu'un logiciel. Lire la suite
-
Conseil
30 juin 2016
Comprendre la galaxie Splunk
Derrière la plateforme analytique spécialisée dans les données « machines » Splunk se dissimulent plusieurs produits complémentaires - qui visent des besoins différent - et des solutions ciblées. En voici un tour d’horizon exhaustif. Lire la suite
-
Guide
29 juin 2016
Le « Who’s Who » de la BI : les 15 qui font l’Analytique
Voici un mémo des acteurs de la BI où se côtoient anciens et entrants, historiques et nouveaux champions, « pure player » et géants de l’IT. Idéal pour faire un tour d’horizon avant une décision d’achat. Lire la suite
-
Conseil
28 juin 2016
L’essentiel sur Birst
Les équipes IT et BI centralisées peuvent utiliser Birst pour se connecter à des équipes métiers décentralisées. Voici un récapitulatif de l’essentiel à savoir sur les capacités analytiques et prédictives de cet outil analytique en mode Cloud. Lire la suite
-
Actualités
27 juin 2016
Salesforce World Tour Paris 2016 : les trois nouveautés produits majeures
Plus d’analytique et de reportings intelligents dans les outils de l’éditeur, une solution de parcours client B2B pour les équipes marketing, et une plateforme de développement mobile quasiment unifiée ont complété l’annonce du datacenter Français. Lire la suite
-
Actualités
21 juin 2016
HPE dévoile une nouvelle ligne de serveurs pour l’IoT
La nouvelle famille de serveurs Edgeline est conçue pour permettre le traitement de données industrielles ou de données de capteur au plus près de l’endroit où elle sont collectées, c’est en dire en bordure et non pas dans le datacenter. Lire la suite
-
Actualités
17 juin 2016
Spark Summit : Databricks détaille Spark 2.0
Alors que Microsoft et IBM poursuivent leur développement autour de Spark, Databricks en dit un peu plus sur Spark 2.0 Attendu d’ici à la fin juin. Lire la suite
-
Definition
15 juin 2016
Wave (Analytics Cloud)
La solution Salesforce Wave Analytics, également nommée Analytics Cloud, est une plateforme BI (Intelligence décisionnelle) de Salesforce.com qui est optimisée pour l'accès mobile et la visualisation des données. Lire la suite
-
Definition
09 juin 2016
R (langage)
R est un langage de script open source destiné à l'analytique prédictif et à la visualisation des données. Lire la suite
-
Definition
09 juin 2016
Apache Pig
Apache Pig est une technologie open source qui fournit un mécanisme de haut niveau pour la programmation parallèle de tâches MapReduce à exécuter sur des clusters Hadoop. Lire la suite
-
Actualités
08 juin 2016
Qlik : un rachat pour se donner du temps et adapter son modèle au Cloud
En se revendant au fonds d’investissement Thoma Bravo, Qlik se donne le temps de s’adapter. Lire la suite
-
Actualités
07 juin 2016
MapR désenlace Spark d’Hadoop
Spark peut vivre sans Hadoop. MapR a profité du Spark Summit pour présenter une distribution Spark sans Hadoop. Lire la suite
-
Actualités
03 juin 2016
Avec ses appliances analytiques Urika-GX, Cray vise le monde de l'entreprise
Fort de son expertise dans le monde du HPC, Cray vient de dévoiler une nouvelle génération d'appliances analytiques, les Urika-GX. Ces dernières proposent une infrastructure optimisée pour l'exécution de workloads Hadoop, Spark et l'analyse à base de graphes. Lire la suite
-
Guide
30 mai 2016
SAPPHIRE 2016 : un SAP en transition met en avant clients et partenaires
Après trois années passées à évangéliser autour d’HANA, SAP tourne peu à peu le dos à un discours purement technologique autour du In Memory pour se tourner un peu plus vers ces clients. Lire la suite
-
Actualités
27 mai 2016
Les DSI doivent trouver leur place dans les projets liés à la donnée
Si les projets de transformation numérique associés à la donnée sont désormais stratégiques, les DSI n’en sont plus le premier moteur. Un glissement vers la DG et les métiers. Lire la suite
-
Actualités
25 mai 2016
BI : Tableau accélère ses cycles de développements
Lors de sa première conférence parisienne, Tableau a partagé les prochaines évolutions de sa plateforme. Au menu : Cloud, libre-service, UI, accès aux données et analyses visuelles. Lire la suite
-
Actualités
19 mai 2016
TibcoNOW : Tibco renforce la qualité et la visualisation des données dans Spotfire
L’accent a été mis sur la data visualisation et les dashboards, le data wrangling et la Guided analytics. Lire la suite
-
Actualités
18 mai 2016
TibcoNOW : le tandem intégration et analytique se pare du bi-modal
Tibco continue de miser sur la complémentarité intégration, données et analytique mais souhaite désormais l’installer plus prêt de la transition des entreprises vers le numérique. Lire la suite
-
Conseil
17 mai 2016
Bien comprendre Hadoop pour gérer les Big Data
Hadoop est devenu aujourd’hui le moteur d’applications clés pour les entreprises. Mais pourquoi ce framework attire-t-il le monde professionnel ? Lire la suite
-
Projet IT
17 mai 2016
Comment Leicester a gagné le Championnat d'Angleterre grâce a l'analyse statistique
Leicester City a gagné - à la surprise générale - la Premier League. Donné vainqueur à 5000 contre 1 en début de saison, le club s'est appuyé sur l'analyse de données pour optimiser les performances de ses joueurs et adapter ses tactiques en quasi temps réel. Lire la suite
par- La Rédaction
- Philippe Ducellier, Rédacteur en chef adjoint
-
Actualités
13 mai 2016
Hadoop : MapR mise sur la convergence et la plateforme unifiée
Parce que les entreprises ont besoin qu’on les aide à pré-digérer la sphère des technologies Hadoop, MapR choisit la voie de la plateforme intégrée pour y fédérer les cas d’usages et les APIs correspondantes. Lire la suite
-
Conseil
13 mai 2016
L’essentiel sur Teradata Active Enterprise Data Warehouse
Avec le relationnel et le mode colonne, Teradata Active Enterprise Data Warehouse offre aux entreprise une appliance performante et pouvant être dimensionnée. Elle peut être déployée soit sur site, soit dans le Cloud. Lire la suite
-
Projet IT
10 mai 2016
Gulf Air analyse les sentiments de ses clients avec Hadoop
La compagnie aérienne utilise un Cloud privé et l’Open Source pour analyser les réseaux sociaux et mieux comprendre ce que pensent ses clients. Lire la suite
-
Projet IT
10 mai 2016
Carrefour dote son SI d'une architecture « data-centric »
Le numéro 1 français de la distribution a entrepris la modernisation de son système d'information en déployant un Data Lake. Baptisé PHENIX, ce projet vise à faire basculer l'informatique de l'entreprise dans le temps réel. Lire la suite
-
Actualités
09 mai 2016
Watson AlchemyLanguage : vers une rationalisation des APIs
Reconnaissance visuelle, analyse émotionnelle et textuelle… les APIs AlchemyLanguage se multiplient. Il faut désormais faire le tri. Lire la suite
-
Actualités
03 mai 2016
2016, l’âge d'or des solutions RH prédictives est arrivé
D'après le sondage annuel de Deloitte mené auprès des dirigeants d'entreprise et des DRH, les solutions analytiques appliquées aux RH, l'apprentissage et l'engagement sont les tendances phares du capital humain en 2016. Lire la suite
-
Conseil
29 avr. 2016
L’essentiel sur dashDB
IBM dashDB est un entrepôt de données disponible dans le Cloud à partir de la plateforme Bluemix d'IBM. Il s'appuie sur la technologie IBM BLU Acceleration et intègre l’analytique de Netezza. Lire la suite
-
Actualités
28 avr. 2016
Spark, un compagnon logique pour l’Internet des objets
Analyser les avalanches de données issues de l’Internet des objets et les intégrer dans les équipements industriels sont des cas d’usage clé de l’IoT. Spark pourrait y tirer son épingle du jeu. Lire la suite
-
Conseil
21 avr. 2016
Supply Chain : pourquoi les capteurs et l’IoT changent la donne
Une nouvelle génération de capteurs peu coûteux et d’appareils connectés peut aider à améliorer la chaine d’approvisionnement des industriels. A condition de les coupler aux bons outils d’analyses. Lire la suite
-
Projet IT
20 avr. 2016
IoT et NoSQL : Cassandra va permettre à CMA-CGM de suivre ses conteneurs en temps réel
Le 3ᵉ armateur mondial de transport maritime en conteneurs est le premier client de la start-up marseillaise Traxens, dont l’objectif est à terme de suivre trois millions de ces containers. Ce service Big Data dédié au secteur maritime s'appuie sur la distribution DataStax Entreprise de la base NoSQL Apache Cassandra. Lire la suite
-
Conseil
19 avr. 2016
L’essentiel sur HPE Vertica Analytics Platform
La solution Vertica Analytics Platform de Hewlett Packard Enterprise est conçue pour être utilisée dans les entrepôts de données et autres applications complexes, faisant un usage intensif des requêtes. Lire la suite
-
Actualités
19 avr. 2016
Hortonworks met plus de sécurité, de gouvernance et de Cloud dans Hadoop
Au coude-à-coude avec Cloudera sur le marché des solutions de Big Data Open source, Hortonworks dote sa distribution HDP de fonctions de haut niveau pour s’inscrire dans la lignée d’un Oracle. Lire la suite
-
Conseil
18 avr. 2016
Data mining et simulation : les combiner optimise les processus complexes
L'exploration de données, ou Data Mining, et la simulation peuvent être combinées pour mieux modéliser et améliorer les processus industriels, le développement urbain et d'autres systèmes complexes. Lire la suite
-
Actualités
18 avr. 2016
Teradata fait évoluer son architecture MPP
Nouvelle architecture MPP nommée Intelliflex, disponibilité de la base Teradata sur AWS et extension des services cloud managés en Europe… Teradata multiplie les annonces lors de sa conférence Universe. Lire la suite
-
Actualités
15 avr. 2016
Hadoop : Pivotal mise désormais sur Hortonworks
Pivotal sort du marché de la distribution Hadoop par la porte Hortonworks et se concentre sur ses capacités d’exploitation des données et la simplification des usages. HDB, son moteur SQL-on-Hadoop, et Gemfire, en frontal. Lire la suite
-
Actualités
14 avr. 2016
Hadoop Summit 2016 : Hortonworks voit au-delà d’Hadoop
A l’occasion de l’Hadoop Summit qui se tient actuellement à Dublin, Hortonworks a annoncé des alliances clés et des évolutions de sa roadmap, avec un axe fort portant sur les données en mouvement. Lire la suite
-
Definition
13 avr. 2016
Données semi-structurées
Les données semi-structurées sont des données qui n'ont pas été organisées en référentiel spécialisé, comme c’est le cas dans une base de données, mais qui comportent néanmoins des informations associées, des métadonnées par exemple, qui les rendent plus faciles à traiter que des données brutes. Lire la suite
-
Conseil
12 avr. 2016
IoT et Big Data : et si on réfléchissait un peu avant de se lancer ?
Se précipiter sur les nouvelles technologies, notamment l’IoT et le Big Data, est souvent une erreur. Or, la clé de la réussite consiste à trouver le bon rythme et évaluer les exigences. Surtout quand on parle infrastructure. Lire la suite
par- Dan Kusnetzky
-
Actualités
12 avr. 2016
SAP lance un club mondial de CDO depuis Paris
SAP souhaite prendre le leadership de la chasse au Chief Data Officer. Ce club regroupera des décideurs ayant pour problématique la transformation numérique de leurs organisations. Mots d’ordre : partage, discrétion, bienveillance et neutralité technologique. Lire la suite
-
Definition
11 avr. 2016
SAP HANA Vora
SAP HANA Vora est un moteur de traitement in-memory conçu pour rendre le Big Data issu d'Hadoop plus accessible et exploitable. SAP a développé Vora à partir de SAP HANA afin de répondre à des scénarios spécifiques impliquant le Big Data. Lire la suite
-
Definition
11 avr. 2016
SAP HANA Enterprise Cloud
SAP HANA Enterprise Cloud (HEC) est un service d'hébergement en Cloud privé fourni par SAP pour des solutions tournant sur SAP HANA. Lire la suite
-
Actualités
08 avr. 2016
L’analyse de flux de données au cœur de la conférence Strata + Hadoop 2016
Migrer les flux de données est un must dans de nombreuses applications modernes. Résultat, les systèmes analytiques de flux comme Spark Streaming, Kafka et d’autres sont portés sur le devant de la scène. Lire la suite
-
Definition
07 avr. 2016
CDO (Chief Data Officer)
Un responsable des données, ou CDO (pour Chief Data Officer), est un cadre exécutif de l'entreprise, chargé de la gestion et de l'exploration des données. Lire la suite
-
Actualités
06 avr. 2016
MariaDB mise sur InfiniDB pour attaquer le Big Data
MariaDB crée ColumnStore, un fork d’InfiniDB pour se positionner sur le marché du Big Data. Il sera le moteur analytique et Big Data de MariaDB. Lire la suite
-
Conseil
06 avr. 2016
Le « Data as a Service », nouvel eldorado du marketing numérique
Les données tierces fournies sur abonnement par les éditeurs IT permettent d’enrichir une connaissance client, de dépasser la vision 360° et de trouver de nouveaux prospects. Tout en économisant le difficile traitement des données brutes. Mais elles vont poser des questions de confidentialité. Lire la suite
-
Projet IT
05 avr. 2016
Aeroflot embarque Watson à bord pour mieux cibler ses passagers
La compagnie russe va utiliser les technologies analytiques d’IBM – dont BigInsights et SPSS – pour mieux comprendre sa clientèle, améliorer son programme fidélité et augmenter ses revenus. Lire la suite
par- Brian McKenna, ComputerWeekly (groupe Techtarget)
- Philippe Ducellier, Rédacteur en chef adjoint
-
Guide
01 avr. 2016
Guide pratique pour bien choisir son Data Warehouse
Ce guide pratique revient sur les évolutions, les atouts et les éléments à prendre en compte - en interne et dans les offres - pour bien choisir son entrepôt de données. Lire la suite
-
Actualités
31 mars 2016
Power BI (ré)intègre Excel
La plateforme BI de Microsoft vient de se doter de deux outils permettant d’exporter ses données vers Excel et d’importer des contenus depuis le tableur. Deux passerelles fortement demandées par les utilisateurs. Et qui devraient asseoir encore un peu plus la montée en puissance de l’offre. Lire la suite
-
Actualités
30 mars 2016
Analytique : Gartner bouleverse sa hiérarchie des éditeurs de BI
Expérience utilisateur simplifiée pour les métiers, facilité et flexibilité de déploiement d’un côté ; outils open-sources, multiplication des données, montée en puissance du prédictif et de l’IoT de l’autre, sont en en train de redessiner le marché de la BI. Une BI qui n’a jamais été aussi mouvant. Lire la suite
par- Ed Burns
- Philippe Ducellier, Rédacteur en chef adjoint
-
Conseil
29 mars 2016
Data Warehouses : comment évaluer les principales fonctionnalités des plateformes
Pour faciliter le choix entre les différents types de plateformes d'entrepôt de données, commencez par déterminer l'option de déploiement qui correspond le mieux à votre projet. Lire la suite
-
Actualités
29 mars 2016
Analytique et Big Data : deux priorités d’investissement en 2016 pour les entreprises françaises
Une étude TechTarget affirme que 36,8% des entreprises sondées considèrent le déploiement d’outils analytiques et Big Data en 2016. L’association des deux (l’analytique opérée sur des Big Data) monte aussi en puissance. Lire la suite
-
Projet IT
25 mars 2016
Artfinder : la e-galerie d’art affine ses recommandations avec Neo4j
Une machine peut-elle apprécier l’art ? Non. En tout cas pas encore. Et peut-être même jamais. Ce qui n’a pas empêché le site de commerce d’art d’utiliser une base orientée graphe pour créer un moteur de suggestions et de recommandations personnalisées pour ses membres. Lire la suite
par- Cliff Saran, Managing Editor
- Philippe Ducellier, Rédacteur en chef adjoint
-
Actualités
25 mars 2016
Groupe Open forme ses data scientists avec Centrale-Supélec
Le Big Data fait partie des axes stratégiques de l’ESN. Une cinquantaine d’experts, directement opérationnels, seront formés en 2016 Lire la suite
-
Definition
24 mars 2016
Google Cloud Platform
Google Cloud Platform (GCP) est la plateforme cloud de Google pour les développeurs et les gestionnaires d’infrastructure qui regroupe son PaaS et son IaaS ainsi qu’un ensemble d’API et de services connexes comme les bases de données hébergés, des outils Big Data, de Machine Learning ou d’optimisation du réseau. Lire la suite
-
Conseil
24 mars 2016
Les entrepôts de données et les outils analytiques Cloud : une prise de risque ?
Les services Cloud sont devenus une option économique pour les entreprises, mais il convient d’être prudent pour se protéger contre les risques pesant sur les données. Lire la suite
-
Definition
22 mars 2016
Spark (Apache)
Apache Spark est un cadre de traitement parallèle open source permettant d'exécuter des applications d'analyse de données à grande échelle sur des ordinateurs en grappe. Il peut gérer des charges de travail d'analyse et de traitement de données en batch et en temps réel. Lire la suite
-
Actualités
22 mars 2016
Priorités IT : les entreprises prévoient une hausse de leur budget IT en 2016
D’après une étude de TechTarget (propriétaire du MagIT), les entreprises françaises devraient en grande majorité augmenter leur budget IT en 2016 pour alimenter des projets de Big Data, analytique, mobilité et consolidation de datacenters. Lire la suite
-
Definition
21 mars 2016
SQL-on-Hadoop
SQL-on-Hadoop est une classe d'outils d'application analytique qui combine une interrogation classique de style SQL à des éléments d'infrastructure de données Hadoop. Lire la suite
-
Actualités
17 mars 2016
Cloudera, Qlik et Accenture ensemble pour dynamiser les projets Big Data en France
La communauté Agora Data & Analytics a pour vocation de réunir directions métiers, générales et IT pour poser les bases du Big Data et de faire éclore les possibilités d’usages. Lire la suite
-
Actualités
14 mars 2016
Avec NoData, Advanced Schema veut accélérer les projets de Big Data
La société française prépare une plateforme qui devrait accélérer la mise en place de projet en proposant un socle technologique intégré Lire la suite
-
Actualités
14 mars 2016
OpenText fond officiellement l’analytique au cœur de la V16 de sa plateforme
L’analytique infuse dans toutes les couches de la plateforme d’EIM. Une étape clé dans la feuille de route d’OpenText, qui mènera à terme au cognitif. Lire la suite
-
Conseil
11 mars 2016
Comment trouver et recruter les nouvelles compétences en BI
Les entreprises doivent désormais développer leurs capacités de DataViz et de Storytelling de données. Mais comment trouver des personnes dotées de ces nouvelles compétences appropriées en informatique décisionnelle moderne ? Réponse. Lire la suite
-
Definition
08 mars 2016
Base de données en colonnes
Une base de données orientée colonnes (ou en colonnes) est un système de gestion de bases de données (SGBD) qui enregistre les données dans des colonnes, plutôt que dans des lignes. Lire la suite
-
Definition
08 mars 2016
Data Mining
Le Data Mining, consiste à rechercher des relations qui n'ont pas encore été identifiées. Par exemple, s'ils sont suffisamment analysés et associés à d'autres données commerciales, les ventes d'une marque de raquettes de tennis peuvent révéler une tendance saisonnière. Lire la suite
-
Actualités
07 mars 2016
Big Data Paris : l’heure des projets a (légèrement) sonné
L’édition 2016 de Big Data Paris est marquée par une progression des projets où le Big Data joue un rôle clé. Même si l’industrialisation des PoC reste encore aléatoire. Le lac de données reste le cas d’usage premier. Lire la suite
-
Conseil
04 mars 2016
De l’avantage d’intégrer Blockchain à une architecture distribuée
Selon Ranbir Mazumdar, consultant chez Oracle, les professionnels IT doivent analyser le fonctionnement des architectures Blockchain pour en comprendre les bénéfices, notamment dans l'IoT. Bénéfices qui dépassent largement l'exemple de Bitcoin. Lire la suite
-
Projet IT
03 mars 2016
La division Equipement Industriel de Hertz passe à l’Internet des Objets
Une stratégie de transformation de son activité accompagnée par la société de services informatique américaine Cognizant. Lire la suite
par- Karl Flinders, Chief reporter and senior editor EMEA
- Philippe Ducellier, Rédacteur en chef adjoint
-
Actualités
02 mars 2016
Les 5 tendances clefs du marketing numérique en 2016-2017
« Marketing hubs », automatisation, ultra-personnalisation, event-trigger marketing et engagement client, et marketing mobile enrichi à l’analytique sont les cinq disciplines à la croisée de l’IT et du marketing qui devraient s’imposer dans les deux ans à venir d'après Gartner. Lire la suite
-
Actualités
02 mars 2016
Moteurs SQL-On-Hadoop : des performances inégales selon les requêtes
La société AtScale publie les résultats d’un benchmark sur les performances de 3 moteurs SQL-on-Hadoop. Verdict : des inégalités en fonction du type de requêtes. Lire la suite
-
Definition
29 févr. 2016
Analytique descriptive
L'analytique descriptive est une étape préliminaire du traitement des données qui consiste à synthétiser des données historiques pour en tirer des informations utiles voire les préparer en vue d'une analyse complémentaire. Lire la suite
-
Definition
29 févr. 2016
Quant
Un analyste quantitatif (surnommé « Quant ») est un professionnel de la finance chargé de faire de prévisions en s’appuyant sur des mathématiques avancées et sur l'informatique. Lire la suite
-
Actualités
25 févr. 2016
GE veut faire de Predix le leader de l’analytique en milieu industriel
GE et son bras armé IT GE Digital ont lancé un programme partenaires pour leur plateforme analytique Cloud pour le milieu industriel : Predix. Dévoilé au Mobile World Congress, il cible intégrateurs, éditeurs et sociétés de conseils. Lire la suite
-
Definition
24 févr. 2016
Informatique cognitive
L'informatique cognitive, ou cognitique, ou encore Cognitive Computing, consiste en la simulation de processus de pensée humaine dans un modèle informatisé. Lire la suite
-
Definition
24 févr. 2016
Analytique prédictive
L'analytique prédictive est la branche de l’analytique qui s'intéresse à la prédiction de probabilités et de tendances futures. Lire la suite
-
Projet IT
23 févr. 2016
Marks & Spencer déploie Hadoop pour créer de nouvelles fonctionnalités analytiques
Après avoir retiré son site web d’AWS, le distributeur britannique a créé « un hub de données » pour mieux analyser les retombées marketing et mieux comprendre les comportements clients dans un contexte multi-canal. Au cœur de ce projet Big Data : la distribution Hadoop de Cloudera. Lire la suite
-
Conseil
22 févr. 2016
L’essentiel sur Information Builders WebFOCUS
La plateforme WebFOCUS d'Information Builders comprend une panoplie d'outils d'analyse décisionnelle qui permettent aux métiers de réaliser des opérations d'analytique prédictif, de modélisation statistique et d'analytique du Big Data. Lire la suite
-
Conseil
19 févr. 2016
L’essentiel sur SAS Visual Analytics
Le logiciel SAS Visual Analytics propose des fonctions de reporting et d'informatique décisionnelle en libre-service afin de permettre aux utilisateurs mériters non spécialisés d'identifier des relations et des schémas pertinents au sein des données. Lire la suite
-
Actualités
19 févr. 2016
IBM débourse 2,6 Md$ pour doper Watson Health à la donnée
Big Blue rachète Truven Health Analytics, la 4e acquisition pour sa division Watson Health. Lire la suite
-
Guide
19 févr. 2016
Spark et SQL-On-Hadoop : vers un Hadoop augmenté
Spark, Impala, Kudu, Storm, Kafka, Pig, Hive et Arrow augmentent Hadoop pour en faire un outil qui correspond mieux aux entreprises. Un cheminement vers une démocratisation à base de temps réel, de Machine Learning et de SQL. Ce Guide Essentiel vous en explique la mécanique. Lire la suite
-
Conseil
18 févr. 2016
L’essentiel sur IBM Cognos
Si la dernière version d'IBM Cognos Business Intelligence est toujours chapeautée par les services informatiques, elle offre néanmoins aux utilisateurs une configuration et un déploiement simplifiés pour une BI en self-service. Lire la suite
-
Conseil
17 févr. 2016
L’essentiel sur Tableau
Tableau permet d'analyser, de visualiser et de partager rapidement des données avec des collègues pour faciliter les prises de décisions, quel que soit son niveau de connaissances techniques. Lire la suite
-
Actualités
17 févr. 2016
Apache Arrow : un turbo standard pour l’analytique In-Memory
Arrow fournit une représentation standard du In-Memory en colonne pour accélérer les traitements analytiques. Il s’appuie également sur les instructions SIMD des processeurs. Lire la suite
-
Actualités
17 févr. 2016
IoT : avec Quarks, IBM met le traitement des données au plus proche des objets
Cette logique permet de filtrer à la source les informations pertinentes, une réactivité plus grande des opérationnels, et une économie sur les communications réseaux. Mais Dell, Cisco et une multitude de constructeurs sont déjà à l’œuvre sur ce champ émergent de l’Internet des Objets. Lire la suite
-
Conseil
16 févr. 2016
L’essentiel sur Qlik
La plateforme de DataViz aide les utilisateurs à accéder à leurs données, à les présenter, à les explorer et à en tirer le maximum d’utilité pour les métiers. Lire la suite