Séminaire DIXIT – Les nouvelles frontières de la « data intelligence » : content analytics, machine-learning, prédictif – Présentations

EDITO : LES NOUVEAUX DÉFIS DE LA DATA INTELLIGENCE

Avec l’explosion des données,  l’enjeu pour le « knowledge worker »  n’est plus simplement de surveiller ou de capitaliser les informations pertinentes mais de pouvoir les manipuler afin d’en extraire de la connaissance facilement exploitable et actionnable.

Faire converger les différentes approches de la « data intelligence » devient indispensable pour rendre les Big Data propices aux traitements analytiques avancés : traitements linguistiques, sémantiques, statistiques, modèles prédictifs, auto-apprentissage, deep-learning, etc.

Cela implique de monter en compétence sur le traitement des données et de revoir certains process de traitement de l’information. La data intelligence fait ainsi bouger les lignes entre les fonctions de veille et d’analyse. Si les métiers de chacun diffèrent encore, des problématiques communes émergent pour franchir cette étape. Au-delà des enjeux de R&D, il convient aujourd’hui démystifier les technologies et exposer les usages innovants pour en illustrer concrètement la valeur.

Statistique, sémantique, linguistique, machine-learning, indexation haute performance, visualisation temps-réel, API prédictives … ce séminaire illustrera les innovations de la data intelligence à travers des retours d’expériences concrets en Social Media Intelligence et en Business Intelligence.

PROGRAMME

Accueil des participants : 13h30-14h

Animation : Charles Huot, Président du GFII et de l’Aproged, Président du comité éditorial de l’Alliance Big Data

Mot d’accueil : Michel Bernardini, Responsable communication et informatique à la direction des études économiques, BNP Paribas

SESSION #1 : COMMENT EXTRAIRE DE LA VALEUR DE GROS VOLUMES D’INFORMATION SOCIALE, MULTILINGUE, MULTICANAL ?
NOUVEAUX USAGES ET INNOVATIONS DANS LA SOCIAL MEDIA INTELLIGENCE.

  • Expérience informationnelle et exploitation analytique des données : comment aller au-delà des discours très généraux sur les données massives et le machine learning ? L’exemple de l’Argus de la Presse
    Odile Quesnel, Responsable ArgusLab, Argus de la Presse
    Résumé : Dans un contexte où contenus médias et sociaux sont en permanence augmentés par les parcours informationnels des socionautes, nous assistons à un renouvellement des questionnements sur la transmission de l’information et l’influence. Les défis sont autant dans la multiplicité des usages que dans les contraintes de volume, d’hétérogénéité et de temps réel. L’analyse marketing et les sciences de l’information jouent désormais très souvent sur un territoire commun. Ceci oblige les métiers de l’information comme le Market Intelligence à intégrer une démarche également pilotée par les données et les corrélations. Nous chercherons donc à comprendre en quoi il devient indispensable de mobiliser des procédés de machine learning et de content analytics pour répondre à ces enjeux. ( PRESENTATION )

  • Une veille intelligente dans un monde global – Témoignage du groupe Total sur ses usages des solutions d’analyses sémantiques de Proxem
    François Régis Chaumartin, Dirigeant, Proxem
    Claude Fauconnet, chef de projet innovation numérique, Total
    Résumé : Dans un monde globalisé, les fonds documentaires sont loin d’être tous en français ou en anglais, et nécessitent pour être exploités de dépasser la barrière des langues. Claude Fauconnet (Total) et François-Régis Chaumartin (Proxem) présenteront la démarche pour effectuer une collecte multilingue sur le web et une analyse sémantique des Big data textuelles. Nous verrons avec des illustrations provenant de retours d’expériences concrets, comment analyser un ensemble de marchés, de thématiques, d’articles de presse et de technologies rapidement et dans la plupart des langues existantes.

  • L’analyse Sémantique :une opportunité pour des services de curation – Les Echos 360
    Olivier Delteil, responsable du développement numérique, Groupe Les Echos
    Claude de Loupy, CEO, Syllabs
    Résumé : L’approche menée par Les Echos 360 du Groupe Les Echos, avec l’aide des technologies Syllabs. Objectifs, Structuration de l’offre, retour d’expérience.
    Pour en savoir plus : Les Echos lance un nouveau site de curation : Les Echos 360 (e-marketing.fr)
    ( PRESENTATION )

  • Innovations et réalités du marché et des usages de la veille média
    Christophe Dickès, Global Copyright Director, en charge de la prospective, Kantar Media
    Arnaud Couturier, Directeur adjoint du département analyses, Kantar Media
    Résumé : Depuis la rédaction du livre blanc du GFII sur la veille en 2012, des pratiques en émergence ont été confirmées (Veille en temps réel, Veille Multimedia, Place des réseaux sociaux….). Les fondamentaux de la pyramide de valeurs de la veille et de l’analyse média n’en ont pas été pour autant bouleversés. Ils restent profondément les mêmes. Ce qui change est bien la façon de réaliser la veille et surtout les conditions de restitution et de diffusion du résultat. Kantar Media, créateur de l’UBM (Unité de Bruit Médiatique ©) et de la nouvelle plateforme KM+, présentera sa perception d’un marché qui aujourd’hui, doit faire face à des défis, des constantes, parfois des freins, qu’il s’agit d’identifier dans le but de répondre ou d’encourager l’expérience client.
    Pour en savoir plus : Tendances social média 2015, vidéo Kantar Média
    ( PRESENTATION )

SESSION #2 : COMMENT EXTRAIRE DE LA VALEUR DES MACHINE-DATA ET DES BASES DE DONNEES BIG DATA ?
NOUVEAUX USAGES ET INNOVATIONS DANS LA BUSINESS INTELLIGENCE.

  • Témoignage de Sendinblue sur Logmatic.io, solution d’analyse des logs et données machines
    Amirhossein Malekzadeh, PDG – cofondateur, Focusmatic
    Armand Thiberge, Président, Sendinblue
    Pour en savoir plus : interview vidéo d’Amirhossein Malekzadeh (Veillemag)
    ( PRESENTATION )

  • Mieux vivre les matchs de tennis grâce à l’analytics – IBM
    Claire Herrenschmidt, Responsable des Partenariats Sportifs (Roland-Garros, Evian Championship), IBM
    Lucile Hyon-Le Gourrièrec, Marketing Leader Big Data & Analytics, IBM
    Résumé : Depuis plusieurs années, IBM collecte et analyse de très nombreuses données sur les matchs de tennis en Grand Chelem. Et grâce à l’analytique, ces données révèlent des tendances de jeu et permettent de déterminer pour chaque joueur les critères clés pour gagner. Le SlamTracker mis au point par IBM pour le site officiel de Roland-Garros permet de vivre les matchs en live de façon plus intense et approfondie avec les clés du match mises à jour en temps réel et de nombreuses stats utiles. Claire Herrenschmidt et Lucile Hyon-Le Gourrièrec expliqueront comment l’analytics transforme le jeu.
    Pour en savoir plus : Ballade technologique à Roland Garros (diaporama journaldunet.com)
    ( PRESENTATION )

  • Témoignage croisé d’Ellisphere et Parstream sur le développement du service Ellicible : segmentation temps réel, interactive de grands jeux de données
    Bernard Simon, Responsable Marketing Veille et Marché, Ellisphere (ex Coface Services)
    Peter Livaudais, Directeur des solutions, Parstream
    Résumé : D’ordinaire la segmentation de grands jeux de données (grandes populations et/ou nombreuses dimensions) est un processus contraignant, long et gourmand en puissance de calcul. Il est réalisé soit en batch, soit sur la base d’un échantillonnage horizontal ou vertical pour réduire le temps de traitement. Ellisphere s’appuie sur ParStream pour s’affranchir de ces contraintes techniques ; Bernard Simon et Peter Livaudais présenteront une solution temps réel, un libre-service de traitement d’importants jeux de données sur la base d’une innovation en technologie analytique.

Groupement Français
de l’Industrie de l’Information

17, rue Castagnary 75015 Paris
Tél. +33 1 44 90 43 69