L'Intelligence artificielle au service d'une analyse optimisée des données

La société Qwam CI a récemment publié un livre blanc intitulé : « Intelligence artificielle & valorisation des données textuelles » et qui permet notamment de découvrir des témoignages d’experts, des cas d’usages ou encore des aspects techniques...

Dans un texte d'introduction, Christian Langevin - Directeur Général de QWAM - rappelle que, depuis quelques années, l’Intelligence Artificielle (IA) s’est imposée comme un des thèmes majeurs de la transformation numérique des entreprises et des organisations. Ce terme d’IA recouvre de très nombreuses technologies : reconnaissance d’images, reconnaissance de la parole, traduction automatique, modélisation de systèmes complexes… Ce domaine devient de plus en plus important pour les entreprises et les organisations sachant que la majorité des données produites ou circulant dans
les entreprises ou sur le web sont textuelles.

Les experts interrogés évoquent l'impact de l'IA dans les domaines les plus variés : Défense et sécurité, démocratie, analyse du risque, ressources humaines... De son côté, Michel Meyer - Senior advisor, PremièresVentes - s'intéresse à l'anayse de l'information web. Il écrit notamment ceci : "L’industrie informatique est coutumière des modes et sa capacité à se réinventer est assez surprenante ; les mêmes concepts sont souvent présentés comme des nouveautés là où il n’y a que redite... Il en est ainsi de l’Intelligence Artificielle, et notamment de l’apprentissage automatique, dont la majeure partie de l’algorithmique exploitée aujourd’hui a été inventée au cours des années 1980. La véritable nouveauté vient plutôt des données dont la volumétrie a littéralement explosé : le Zeta octet (10²²) est devenu l’unité de mesure du web bien qu’il soit difficile de savoir ce que l’on mesure exactement. Ce gigantesque gisement de données, le « big data », a changé la donne. Il y a 30 ans, la difficulté était plutôt de pouvoir faire fonctionner les algorithmes sur un périmètre significatif. (...) D’une façon générale, ce changement de paradigme a eu un impact significatif sur les technologies mises en oeuvre pour l’analyse sémantique et plus généralement le traitement automatique des langues (Natural Language Processings - NLP en anglais)."

En guise de conclusion, Fanny Maffre - Responsable clientèle QWAM - précise que L’IA doit permettre aux analystes de réaliser à la fois plus facilement et avec plus de pertinence des tâches ou des analyses qui seraient trop chronophages ou impossibles à réaliser à cause, par exemple, du nombre et de la pluralité des données à traiter.

Plus d'infos : https://www.qwamci.com/2020/09/11/livre-blanc/

 

Fabrice MOLINARO