Prendre contact
Ch. du Vernay 14a
Gland 1196 CH-Vaud
[email protected]
Tél : +41 21 561 28 48
Retour

Une semaine pleine d'IA et de LLM

J'ai eu le privilège de présider le sommet sur l'IA et le Big Data organisé par TechEx, qui a suscité un vif intérêt de la part de professionnels et de passionnés désireux d'explorer les derniers développements en matière d'IA et de LLM. En outre, j'ai participé à l'événement Productcamp Europe organisé par Epam Systems et Emakina. Ce rassemblement a constitué une excellente plateforme de discussion sur divers sujets liés aux données, à l'IA et à l'apprentissage automatique, mais sous l'angle du produit. Les enregistrements complets de TechEx peuvent être consultés à l'adresse suivante ici.

L'interaction entre la science des données et la stratégie d'entreprise : Un aperçu de la conférence TechEx sur le numérique appliqué, les données et l'IA

Conférence sur le numérique appliqué, les données et l'IA

Les participants, un mélange de leaders de l'industrie, de scientifiques des données et d'esprits curieux, étaient là pour une seule raison : plonger dans l'avenir du numérique appliqué, des données et de l'intelligence artificielle. En tant que partenaire général d'Allegory Capital, j'ai eu le privilège d'ouvrir la conférence, ouvrant ainsi la voie à une journée de discussions riches et de révélations révolutionnaires.

Le premier sujet qui a attiré l'attention de tous a été la présentation de Sanchit Juneja, directeur de produit pour la science des données et l'apprentissage automatique chez Booking.com. Le discours de Sanchit sur les grands modèles linguistiques (LLM) a été très instructif. Il a souligné que Booking.com avait déjà intégré les LLM dans ses flux de travail et qu'il était en train d'étendre ces initiatives. La capacité de l'entreprise à traiter quotidiennement d'énormes volumes de données témoigne de l'efficacité de ces modèles. Cette révélation constitue une étape technologique importante et un signe avant-coureur de ce qui va se passer dans différents secteurs d'activité. L'intégration et la mise à l'échelle des LLM ne se limitent plus aux géants de la technologie ou aux acteurs purement numériques. Les secteurs traditionnels, y compris les soins de santé et la finance, commencent également à réaliser le potentiel de transformation de ces modèles. Toutefois, le défi consiste à étendre ces initiatives au-delà de la phase de validation du concept, un obstacle que de nombreuses industries doivent encore surmonter. Pour illustrer son propos, Sanchit a expliqué comment Booking.com utilise les LLM pour améliorer l'expérience de ses clients. Les LLM peuvent générer des recommandations de voyage personnalisées en analysant les avis et les commentaires des clients, ce qui accroît l'engagement des clients et les recettes. Cette application pratique est un cas convaincant de la façon dont les LLM peuvent générer une valeur mesurable dans différentes fonctions de l'entreprise.

La conversation sur les grands modèles de langage a naturellement débouché sur une discussion plus large sur l'avenir de la vente au détail et du développement de logiciels, menée par Peter Winkelman, architecte d'entreprise en chef chez Carrefour, et Nuno Carneiro, responsable principal des produits d'IA chez OutSystems. Leur présentation a permis d'approfondir la vision de Carrefour en matière d'IA et la manière dont elle vise à combler le manque de talents technologiques tout en atteignant les objectifs de la transformation numérique. La stratégie de Carrefour n'est pas seulement un plan directeur pour le commerce de détail, c'est aussi une lentille à travers laquelle nous pouvons voir l'avenir de l'IA dans l'entreprise. L'entreprise investit massivement dans l'IA pour automatiser les processus, améliorer l'expérience client et même transformer la nature même du développement logiciel. Les implications de cette démarche sont considérables. Alors que les entreprises s'efforcent de combler le déficit de talents technologiques, l'IA apparaît comme un allié puissant, automatisant des tâches qui nécessiteraient autrement une intervention humaine importante. Peter et Nuno ont également partagé une étude de cas qui démontre le pouvoir de transformation de l'IA dans le commerce de détail. Carrefour a mis en place un système de gestion des stocks alimenté par l'IA qui a permis de rationaliser les opérations et de réaliser d'importantes économies. Cette application concrète témoigne du potentiel inexploité de l'IA pour transformer les opérations commerciales et atteindre les objectifs stratégiques.

Mais la conférence ne s'est pas contentée de célébrer les réalisations et le potentiel de l'IA et de la science des données ; elle a également servi de plateforme pour discuter des implications éthiques et environnementales de ces technologies. Kristian Kofoed-Solheim, directeur du développement commercial chez Bulk Data Centers, est monté sur scène pour discuter de la manière dont les entreprises peuvent gérer durablement les charges de travail liées au calcul à haute performance (HPC) et à l'IA. Dans le contexte de la science des données, la durabilité est souvent éclipsée par l'attrait des avancées technologiques. Pourtant, comme l'a souligné Kristian, l'empreinte environnementale des centres de données est une préoccupation croissante qui ne peut être ignorée. Les entreprises sont désormais confrontées au défi de trouver un équilibre entre l'évolutivité et la responsabilité écologique. L'exposé de Kristian a été ponctué par l'exemple de Bulk Data Centers, qui a mis en œuvre des solutions d'énergie renouvelable pour alimenter ses centres de données. Cette initiative réduit l'empreinte carbone de l'entreprise et sert de modèle à d'autres organisations confrontées à l'impact environnemental de leurs pratiques en matière de données.

La conférence s'est ensuite concentrée sur le concept de "main-d'œuvre augmentée", un terme qui a gagné en importance dans le lexique de la science des données et de l'apprentissage automatique. La table ronde, animée par Marloes Pomp, coordinatrice des laboratoires du réseau international ELSA, a exploré le déploiement rapide de solutions d'automatisation intelligente, en s'appuyant sur des technologies telles que le traitement du langage naturel (NLP) et l'automatisation des processus robotiques (RPA). L'intégration d'algorithmes d'apprentissage automatique dans la main-d'œuvre n'est pas simplement une évolution technologique ; il s'agit d'un changement de paradigme dans la conceptualisation du travail et de la productivité. Les panélistes ont discuté du concept d'apprentissage automatique "Human-in-the-Loop" (HITL), où l'expertise humaine complète la prise de décision algorithmique. Cette relation symbiotique entre l'intelligence humaine et les capacités des machines constitue une main-d'œuvre augmentée. Rens van Dongen, responsable de la sécurité de l'information aux Chemins de fer néerlandais, a présenté une étude de cas intéressante sur la mise en œuvre d'un système HITL pour la cybersécurité. En utilisant des algorithmes d'apprentissage automatique pour filtrer et hiérarchiser les alertes de sécurité, les experts humains ont pu se concentrer sur des tâches complexes nécessitant une compréhension nuancée, améliorant ainsi l'efficience et l'efficacité globales de leurs opérations de sécurité.

Au fil de la journée, l'intelligence artificielle dans les entreprises a occupé le devant de la scène, avec Erbin Lim, directeur de l'ingénierie et du développement chez Pfizer, qui s'est penché sur les subtilités techniques du déploiement de l'intelligence artificielle. Il a parlé de l'importance du "Feature Engineering", le processus de sélection des variables que le modèle d'apprentissage automatique utilisera pour faire des prédictions. Il a également abordé l'"Hyperparameter Tuning", une technique utilisée pour optimiser les performances des modèles d'apprentissage automatique. L'exposé de M. Erbin était un cours magistral sur les considérations techniques qui sous-tendent le pouvoir de transformation de l'IA dans les entreprises. Il a insisté sur la nécessité d'une transparence algorithmique et a abordé la fréquence du recyclage des modèles, les mesures telles que le score F1 et le ROC-AUC, ainsi que les défis posés par le traitement d'ensembles de données déséquilibrés. Pour illustrer ses propos, M. Erbin a partagé l'expérience de Pfizer dans la mise en œuvre d'un modèle de maintenance prédictive pour ses équipements de fabrication. Les méthodes d'ensemble telles que Random Forests et Gradient Boosting ont permis de réduire de manière significative les temps d'arrêt des équipements, économisant ainsi du temps et des ressources.

La conférence s'est ensuite penchée sur l'éthique et la gouvernance des données, un sujet de plus en plus important à l'ère du Big Data et de l'IA. Joris Krijger, spécialiste de l'IA et de l'éthique à la Volksbank, a présenté au public les complexités de l'opérationnalisation de l'IA éthique. Il a présenté le concept de "Differential Privacy", une technique qui permet aux entreprises de partager des données agrégées sur les habitudes des utilisateurs tout en préservant la vie privée de chacun. Les implications de la confidentialité différentielle sont profondes, en particulier pour les industries qui traitent des données sensibles, telles que les soins de santé et la finance. Elle permet d'exploiter la puissance de l'analyse des données sans compromettre les considérations éthiques. Joris a cité l'expérience de la Volksbank qui a mis en œuvre la confidentialité différentielle dans ses flux de travail d'analyse de données, démontrant ainsi sa viabilité en tant que mécanisme de préservation de la vie privée.

À la fin de la conférence, l'accent a été mis sur l'avenir de l'analytique et de l'IA dans les entreprises. Logan Havern, PDG de Datalogz, a évoqué les défis auxquels sont confrontées les entreprises matures en matière de données pour mettre en place des rapports en libre-service. Il a présenté au public l'"architecture de lac de données", une solution de stockage de données évolutive et flexible qui consolide les données structurées et non structurées. M. Logan a souligné le rôle de la "gouvernance des données" pour garantir la qualité et la fiabilité des données stockées dans les lacs de données. Il a également abordé le concept de "Data Lineage", qui implique le suivi du flux et de la transformation des données à mesure qu'elles passent par les différentes étapes d'un pipeline de données. Il est essentiel de comprendre le Data Lineage pour garantir l'intégrité des données et la conformité avec des réglementations telles que le GDPR. Pour illustrer les applications pratiques de ces concepts, Logan a expliqué comment Datalogz a mis en œuvre une solution de lac de données qui a permis des analyses en temps réel. En utilisant des processus ETL (Extract, Transform, Load) avancés et le "Stream Processing", ils ont été en mesure de fournir des informations exploitables à leurs clients, favorisant ainsi la prise de décision basée sur les données.

Haider Alleg

Données et analyses optimisées : Déverrouiller l'avenir

Lorsque Leonid Pavlov est entré en scène, la salle était remplie d'impatience. Pavlov, un expert chevronné en formation sur les données et l'IA, a donné le ton de la journée avec un récit convaincant qui soulignait le pouvoir de transformation des données et de l'intelligence artificielle. Il s'est exprimé en tant que technologue et visionnaire, brossant le tableau d'un monde où les données ne sont pas seulement un sous-produit des opérations commerciales, mais l'élément vital qui alimente l'innovation et la croissance. Pour Pavlov, l'avenir est fait d'organisations divisées en deux catégories : celles qui comprennent la valeur stratégique des données et celles qui restent à la traîne. Cette bifurcation n'est pas une simple hypothèse ; c'est une réalité qui prend déjà forme. Des entreprises comme Amazon et Google ont été des pionnières dans l'exploitation des données pour la prise de décision, et leur succès témoigne de la puissance d'une approche fondée sur les données. Pour les entreprises des secteurs réglementés, les enjeux sont encore plus importants. Les données ne sont pas seulement un atout stratégique, c'est une exigence de conformité. Le règlement général sur la protection des données (RGPD) en Europe et le California Consumer Privacy Act (CCPA) aux États-Unis ne sont que la partie émergée de l'iceberg. Les futures réglementations seront probablement encore plus strictes, faisant de la gestion des données une fonction essentielle de l'entreprise.

Mahmoud Yassin, Senior Data Manager chez Booking.com, est monté sur scène avec un sentiment d'urgence qui a immédiatement capté l'attention de l'auditoire. Il s'est concentré sur un sujet qui, bien qu'il ne soit pas aussi prestigieux que les algorithmes d'apprentissage automatique ou les techniques de visualisation des données, est fondamental pour tout effort sérieux en matière de données : la lignée des données. Yassin a commencé par présenter le concept de "Provenance des données", un terme qui fait référence à l'origine d'un ensemble de données et à ses transformations ultérieures. Il ne s'agit pas d'un simple exercice technique, mais d'une fonction commerciale essentielle. Dans un monde où les données sont de plus en plus utilisées pour prendre des décisions à fort enjeu, la capacité de retracer l'historique de ces données n'est pas seulement un avantage, c'est une nécessité. Les implications de cette évolution sont considérables. Dans les secteurs réglementés tels que les soins de santé et la finance, la compréhension de l'historique des données n'est pas seulement bénéfique, elle est également requise par la loi.

Basil Faruqui, directeur de l'orchestration des applications et des flux de travail chez BMC, a pris la parole. M. Faruqui est un leader d'opinion reconnu dans le domaine du DataOps, un domaine en plein essor qui vise à apporter la rigueur du DevOps au monde de l'analyse des données. Sa présentation était une plongée profonde dans les complexités et les défis des organisations lors de la transition de la collecte de données à l'utilisation des données, un processus souvent semé d'embûches et de blocages. M. Faruqui a commencé par exposer la dure réalité : malgré les milliards de dollars investis dans des initiatives liées aux données, un grand nombre de ces projets n'aboutissent jamais à la production. Citant des estimations de l'industrie, il a noté qu'environ 15% seulement des initiatives modernes en matière de données sont mises en œuvre avec succès. Il ne s'agit pas seulement d'un échec technologique, mais aussi d'un échec de processus et, en fin de compte, d'un échec de vision. Pour Faruqui, le nœud du problème réside dans l'absence d'orchestration. Le succès d'un orchestre dépend de la capacité du chef d'orchestre à coordonner un groupe diversifié de musiciens. De même, le succès dépend de l'orchestration d'opérations complexes qui couvrent plusieurs départements, technologies et même frontières organisationnelles dans le monde des données.

Modérée par Pietro Bertazzi, directeur mondial de l'engagement politique et des affaires extérieures au CDP, la discussion promettait d'être une exploration approfondie de l'une des questions les plus pressantes dans le monde des données : maximiser l'utilité des données au sein d'une organisation. Les panélistes, issus de diverses industries, étaient unis dans leur conviction que les données ne sont pas seulement un atout technique, mais un atout stratégique. Ashraf Ali K M, directeur de la science des données et de l'analyse chez Footlocker, a souligné la nécessité d'une stratégie commerciale holistique dans laquelle les données font partie intégrante de la chaîne de valeur. Selon lui, les données ne doivent pas être confinées à des départements isolés, mais circuler librement entre les unités commerciales pour favoriser la prise de décision et l'innovation. Il ne s'agit pas seulement d'une question d'intégration technique, mais d'un changement culturel. Giuseppe Lenci, spécialiste de la veille stratégique chez Van Oord, a souligné que la suppression des silos de données nécessite un changement d'état d'esprit. Les organisations doivent passer d'une culture de propriété des données à une culture de gestion des données, où les données sont considérées comme une ressource partagée qui peut bénéficier à tous les départements. Le panel s'est également penché sur les aspects pratiques de l'alignement des données sur des objectifs commerciaux spécifiques. Ils ont souligné l'importance de comprendre les cycles d'achat saisonniers, la demande des clients et d'autres dynamiques de marché. La capacité à aligner l'analyse des données sur ces facteurs peut changer la donne, en permettant aux entreprises d'anticiper les tendances du marché et d'ajuster leurs stratégies en conséquence. Mais ce qui a vraiment retenu l'attention, c'est l'accent mis par le groupe d'experts sur l'intelligence en temps réel. Dans un monde où les conditions du marché peuvent changer en un clin d'œil, la capacité à prendre des décisions basées sur des données en temps réel n'est pas seulement un avantage, c'est une nécessité. C'est particulièrement vrai pour les entreprises des secteurs réglementés, où le coût de l'échec n'est pas seulement financier, mais peut aussi inclure des répercussions juridiques et des atteintes à la réputation. Les réflexions du panel ont été un appel à la clarté pour les organisations afin qu'elles repensent leur approche des données. Il ne suffit pas de collecter des données ; les entreprises doivent également disposer des systèmes, des processus et de la culture nécessaires pour tirer le meilleur parti de cet atout inestimable. Celles qui y parviendront seront bien placées pour faire face aux complexités du paysage commercial actuel, qui évolue rapidement.

M. Ranade a commencé par reconnaître l'existence d'un écueil courant dans le domaine de l'analyse : la question de la qualité des données. Il a expliqué que de nombreuses organisations se concentrent tellement sur la collecte de données qu'elles négligent l'importance de leur qualité. Une mauvaise qualité des données sape les efforts d'analyse et peut conduire à des décisions commerciales erronées. Cet aspect est particulièrement important dans les secteurs réglementés, où l'intégrité des données n'est pas seulement une bonne pratique, mais souvent une obligation légale. Cependant, l'approche de Ranade pour résoudre ce problème est loin d'être conventionnelle. Il a introduit le concept d'une "approche multi-horizon" de l'analyse. Ce cadre permet aux organisations de franchir des étapes significatives dans leur parcours analytique sans s'enliser dans des problèmes de qualité des données. L'idée est de commencer petit mais de voir grand, d'apporter des améliorations progressives tout en gardant un œil sur les objectifs à long terme. Cette approche est particulièrement pertinente pour les entreprises en cours de transformation numérique. Les organisations qui passent de systèmes hérités à des infrastructures plus modernes rencontrent souvent de nombreux défis, des problèmes de migration des données à la résistance culturelle.

Modérée par Bas Vertelman, un ingénieur logiciel spécialisé dans les Big Data en temps réel, la discussion promettait d'approfondir l'un des aspects les plus critiques de l'analyse moderne des données : l'intelligence en temps réel. Jeltsin Neckebroek, responsable de DTC eCommerce chez AB InBev, a ouvert le bal en soulignant le pouvoir de transformation des données en temps réel. À une époque où les préférences des consommateurs peuvent changer du jour au lendemain, la capacité à s'adapter en temps réel n'est pas seulement un avantage concurrentiel, c'est un impératif commercial. M. Neckebroek a expliqué comment AB InBev utilise l'analyse en temps réel pour optimiser sa chaîne d'approvisionnement, ajuster ses prix de manière dynamique et prévoir le comportement des consommateurs. Ce niveau d'agilité est particulièrement crucial dans les secteurs réglementés, où les retards peuvent entraîner des pertes de revenus et des problèmes de conformité. Tarun Rana, responsable des données et de l'analyse chez Henkel, a poussé la conversation un peu plus loin en évoquant les défis posés par les systèmes existants. De nombreuses organisations sont paralysées par des infrastructures obsolètes qui ne sont pas équipées pour traiter des données en temps réel. M. Rana a insisté sur la nécessité d'une architecture de données robuste pour prendre en charge la vitesse, le volume et la variété des données en temps réel. Il a présenté au public le concept de "DataOps", un ensemble de pratiques et d'outils qui permettent des opérations de données agiles, faisant écho aux principes de DevOps dans le monde du développement de logiciels. Cependant, les panélistes ont unanimement estimé que la technologie seule n'était pas la solution. Natasha Govender-Ropert, Senior Global Data Science Manager chez ING, a parlé avec éloquence de l'élément humain. Selon elle, l'intelligence en temps réel n'est pas seulement une question de technologie ; il s'agit aussi de mettre en place les bonnes personnes et les bons processus. Il s'agit de former le personnel à penser en temps réel pour prendre des décisions rapidement et en toute confiance sur la base des données.

Timea Töltszéki, responsable des données et des plateformes chez Boehringer Ingelheim, a fourni un exemple convaincant dans le secteur des soins de santé. Elle a expliqué comment l'analyse en temps réel révolutionne les soins aux patients, en permettant aux médecins de prendre des décisions vitales sur la base de données en temps réel. Il s'agit là d'une illustration frappante du message principal du panel : l'intelligence en temps réel a le potentiel non seulement de transformer les entreprises, mais aussi d'améliorer la vie des gens.

Les réflexions du panel ont été un signal d'alarme pour les organisations qui doivent s'engager dans le "tout de suite". Dans un monde de plus en plus volatil, incertain, complexe et ambigu, la capacité à réagir en temps réel n'est pas seulement un avantage, c'est une nécessité. Ceux qui maîtrisent cette capacité seront bien placés pour prospérer dans le monde rapide de demain.

Rowan van Dongen, Consultant en Manufacturing Analytics chez AVEVA Select Benelux, est monté sur scène pour discuter d'un sujet qui a fait l'objet de nombreux débats mais de peu d'actions : l'exploitation de la technologie cloud pour l'optimisation durable de la fabrication. Le cloud a longtemps été considéré comme un outil de stockage de données et de puissance de calcul, mais M. Rowan l'a présenté comme un outil beaucoup plus stratégique. Il a fait valoir que le cloud n'est pas seulement un outil technologique, mais un outil stratégique, en particulier dans des secteurs tels que les produits pharmaceutiques, où les enjeux sont élevés et l'environnement réglementaire rigoureux. La discussion de M. Rowan n'était pas une simple vue d'ensemble ; il s'agissait d'une plongée en profondeur dans l'économie de l'entreprise responsable. Il a cité des exemples concrets du secteur manufacturier où les analyses basées sur l'informatique en nuage ont permis de réduire les coûts énergétiques de 20%. Il ne s'agit pas seulement de la responsabilité sociale des entreprises, mais aussi de leurs résultats. Les idées de M. Rowan étaient à la fois opportunes et intemporelles dans des secteurs où chaque point de pourcentage d'efficacité opérationnelle peut se traduire par des gains financiers significatifs. Comme l'a souligné M. Rowan, l'informatique dématérialisée peut être le pivot d'une stratégie visant une croissance durable. Ses idées ont été un appel clair aux industries pour qu'elles réévaluent leur stratégie numérique, non pas en tant qu'initiatives informatiques isolées, mais en tant qu'éléments essentiels de leurs modèles d'entreprise. Il a fait valoir que l'informatique dématérialisée pourrait être la clé pour atteindre de nouveaux niveaux d'efficacité et de durabilité, en particulier dans les secteurs réglementés où la conformité et la performance sont souvent considérées comme des forces opposées. Les idées de M. Rowan étaient particulièrement pertinentes pour les entreprises qui se trouvent à l'intersection de la technologie et de la réglementation. Il a montré comment la technologie "cloud" pouvait être utilisée pour satisfaire et dépasser les exigences réglementaires, transformant ainsi un obstacle potentiel en avantage concurrentiel. Cet aspect est particulièrement crucial dans des secteurs tels que les produits pharmaceutiques et les soins de santé, où la conformité n'est pas négociable et où le coût de l'échec est astronomique. Dans un monde où la durabilité n'est plus un mot à la mode mais un impératif commercial, la présentation de Rowan a offert une feuille de route aux entreprises qui cherchent à naviguer dans les complexités de la fabrication moderne. Sa discussion a été un cours magistral sur la façon d'aborder la technologie "cloud" non pas comme une dépense informatique, mais comme un investissement stratégique susceptible de produire des dividendes en termes d'efficacité opérationnelle, de réputation de l'entreprise et de confiance des clients. La présentation de Rowan a marqué un tournant dans la façon dont nous envisageons le rôle de la technologie dans les pratiques commerciales durables. C'était un appel à l'action pour toutes les parties prenantes, des cadres dirigeants aux travailleurs de première ligne, pour qu'elles repensent leur approche de la technologie, de la durabilité et du réseau complexe de réglementations qui régissent les industries modernes. Ses idées n'étaient pas seulement un commentaire sur l'état de l'industrie manufacturière, mais un plan pour son avenir, un plan dans lequel la technologie et le développement durable sont alignés et intégrés dans une relation transparente, presque symbiotique.

Timea Töltszéki, responsable des données et des plateformes chez Boehringer Ingelheim, est montée sur scène pour aborder un sujet qui préoccupe de nombreuses personnes, mais que peu d'entre elles ont abordé : la monétisation des données. À une époque où les données sont souvent considérées comme le "nouveau pétrole", les idées de Timea ont offert une perspective nuancée au-delà des platitudes habituelles. Elle s'est penchée sur la complexité de la compréhension de la valeur réelle des données avant même d'essayer de leur donner un prix. Il s'agit d'une considération essentielle, en particulier pour les entreprises des secteurs réglementés où les données ont une valeur intrinsèque et ont des implications significatives en termes de conformité et d'éthique. La présentation de Timea était un récit convaincant qui réunissait les dimensions techniques, stratégiques et éthiques de la monétisation des données. Elle a cité l'exemple d'un projet récent chez Boehringer Ingelheim, où les stratégies de monétisation des données ont permis d'augmenter l'efficacité opérationnelle de 15%. Mais elle a rapidement souligné qu'il ne s'agissait pas seulement de gains financiers, mais de la création d'une stratégie commerciale holistique dans laquelle les données font partie intégrante de la chaîne de valeur. Ceci est particulièrement pertinent pour les entreprises du secteur pharmaceutique, où les données peuvent catalyser l'innovation, entraînant des progrès dans la découverte de médicaments, les soins aux patients et même la conformité réglementaire. Le concept d'indicateurs clés de performance, souvent relégué aux mesures de performance, a pris une nouvelle signification dans la discussion de Timea. Elle a fait valoir que les ICP pouvaient servir de boussole, guidant les entreprises dans leurs efforts de monétisation des données. En alignant les ICP sur des objectifs commerciaux plus larges, les entreprises peuvent créer une feuille de route pour la monétisation des données qui soit financièrement lucrative, éthiquement saine et stratégiquement alignée sur les objectifs à long terme. Timea a également abordé les piliers de la découvrabilité et de la qualité des données, soulignant qu'il ne s'agit pas de simples considérations techniques mais d'impératifs stratégiques. Dans des secteurs tels que la santé et la finance, où l'exactitude des données n'est pas seulement une mesure de qualité mais une exigence légale, l'importance de la qualité des données ne peut être surestimée. Les idées de Timea ont permis de rappeler que dans la quête de la monétisation des données, la qualité et l'éthique ne sont pas de simples cases à cocher, mais qu'elles sont au cœur même d'une stratégie durable en matière de données. Sa présentation n'était pas un simple exercice académique ; il s'agissait d'un cadre stratégique pour les entreprises aux prises avec les complexités de la monétisation des données dans un paysage en évolution rapide. Les idées de Timea ont été un appel à l'action pour les chefs d'entreprise qui doivent considérer les données non pas comme une marchandise à vendre, mais comme un atout stratégique à exploiter. Son intervention a marqué un tournant dans le dialogue en cours sur le rôle des données dans l'entreprise moderne, en offrant une perspective nuancée et multidimensionnelle souvent absente des discussions sur la monétisation des données.

Barcamp des produits : Un mélange de stratégie, de technologie et de réseautage

Haider Alleg

Le public, composé de passionnés de technologie, de chefs d'entreprise et de stratèges, s'est penché, prêt à se plonger dans un sujet qui promet de redéfinir le tissu même des opérations commerciales.

Mon exposé a commencé par présenter le potentiel de transformation des grands modèles linguistiques. Il ne s'agit pas de simples outils d'automatisation des tâches routinières, mais d'une nouvelle forme d'intelligence qui peut accroître les capacités humaines de manière inédite. Prenons l'exemple du service à la clientèle. La marge d'erreur est minime dans des secteurs tels que les soins de santé et la finance, soumis à des réglementations strictes. Les grands modèles de langage peuvent passer au crible les règles et les directives pour fournir des réponses précises et conformes, libérant ainsi les agents humains pour qu'ils s'attaquent à des problèmes nécessitant une intelligence émotionnelle et une compréhension nuancée.

Cependant, le véritable pouvoir perturbateur de ces technologies réside dans leur capacité à générer de nouvelles connaissances à partir de pools de données existants. J'ai donné l'exemple d'un projet dans le secteur pharmaceutique où un modèle de langage étendu a été déployé pour analyser un vaste corpus de littérature médicale. Le modèle a identifié des interactions médicamenteuses potentielles qui avaient échappé aux chercheurs humains, ouvrant ainsi de nouvelles voies pour le développement de médicaments et les soins aux patients. Il ne s'agit pas d'une simple automatisation, mais d'une innovation qui peut modifier les paradigmes et créer une valeur tangible pour les parties prenantes.

Le public était visiblement engagé, hochant la tête en signe d'approbation et prenant des notes. Les questions suivantes étaient perspicaces et portaient sur les considérations éthiques de l'IA et les défis liés à l'intégration de ces technologies dans les infrastructures informatiques existantes. De toute évidence, les implications des grands modèles de langage et de l'IA générative ont trouvé un écho dans l'auditoire, non pas en tant que concepts abstraits, mais en tant que solutions du monde réel susceptibles d'entraîner une transformation interne et externe.

M. Garg a commencé par disséquer les idées fausses les plus répandues sur la stratégie produit. Il a expliqué qu'une stratégie réussie ne consiste pas seulement à avoir un excellent produit, mais aussi à comprendre l'écosystème dans lequel ce produit existe. Cela implique une analyse approfondie du comportement des clients, des tendances du marché et des facteurs géopolitiques susceptibles d'influencer l'adoption du produit. Il a cité l'exemple d'une entreprise technologique européenne qui n'a pas réussi à s'imposer sur les marchés asiatiques, non pas en raison de l'infériorité de son produit, mais à cause d'un manque de compréhension du comportement des consommateurs locaux et du paysage réglementaire. Cela a conduit à une discussion sur le rôle de l'analyse des données dans l'élaboration de la stratégie de produit. M. Garg a souligné que les données sont un sous-produit des opérations commerciales et un atout essentiel pour la prise de décisions stratégiques. Il a expliqué comment les outils d'analyse avancés peuvent aider les organisations à aller au-delà des mesures de surface pour découvrir des modèles et des tendances plus profonds. Par exemple, les algorithmes d'apprentissage automatique pour analyser les commentaires des clients et les mentions dans les médias sociaux peuvent fournir des informations inestimables sur les points de douleur et les préférences des clients, qui peuvent être exploitées pour affiner les caractéristiques des produits ou développer de nouvelles offres. La conversation s'est ensuite déplacée vers la table ronde, où j'ai eu l'occasion d'échanger avec M. Garg et le public. Les questions étaient incisives, reflétant la profondeur du sujet et ses vastes implications. L'une des questions qui a retenu l'attention concernait le rôle de la culture organisationnelle dans l'élaboration de la stratégie produit. M. Garg et moi-même avons convenu que la culture n'est pas un élément périphérique, mais un élément central de la stratégie. Une culture qui favorise l'innovation, valorise les données et est suffisamment agile pour s'adapter aux changements du marché a plus de chances de réussir à élaborer une stratégie de produits gagnante.

L'intersection de l'innovation, de la réglementation et de l'évolutivité

Après avoir présidé et participé à ces sommets transformateurs, je me retrouve à revoir la question qui a initialement guidé ma préparation : Quels sont les véritables défis et opportunités que l'IA, l'apprentissage automatique et les grands modèles de langage présentent aujourd'hui pour les organisations ? Les idées glanées lors du sommet n'ont fait qu'approfondir ma compréhension de ce paysage complexe, et je crois que nous sommes à un tournant critique qui exige une navigation réfléchie.

Le rythme rapide des progrès technologiques crée une forme de "dette technologique" pour les organisations, en particulier celles des secteurs réglementés. Cette dette se manifeste par un écart croissant entre ce que la technologie peut offrir et ce que les organisations sont capables de mettre en œuvre. Les discussions du sommet sur la lignée des données, l'opérationnalisation et l'intelligence en temps réel ont souligné l'urgence de cette question. Les organisations doivent comprendre et contrôler la chaîne de valeur qui influe sur les comportements des clients. Les données, lorsqu'elles sont correctement déchiffrées, peuvent fournir des informations inestimables sur cette chaîne. Cependant, le plein potentiel des données en tant que monnaie d'échange reste largement inexploité. L'avènement de l'IA et des technologies d'apprentissage automatique offre un moyen de naviguer plus efficacement dans ce paysage de données complexe. Cependant, comme l'ont souligné les tables rondes du sommet, la véritable percée se produira lorsque les organisations saisiront pleinement le concept des données comme étant à la fois un stock et un flux. Cela conduira à des moments de transformation qui pourraient redéfinir les industries, comme la façon dont les capacités de conduite autonome de Tesla ont perturbé le secteur automobile.

Le paysage de la main-d'œuvre est également en train de changer de manière significative, un point qui était palpable lors du sommet. D'un côté, nous avons des dirigeants émergents qui se concentrent sur la réflexion prospective et la planification stratégique. À l'inverse, une gig economy en plein essor est peuplée d'indépendants qui innovent constamment et adoptent de nouvelles compétences. Cette dichotomie représente un défi unique pour les industries réglementées, où la culture de l'échec n'est pas encore la norme. Les rôles de leadership traditionnels, souvent caractérisés par un comportement peu enclin au risque, sont de plus en plus en contradiction avec la culture innovante et rapide de l'écosystème des startups. Ce décalage est encore exacerbé par l'absence d'une approche unifiée de l'innovation, comme en témoigne la diversité des outils et des méthodologies employés dans les organisations. Ce manque de normalisation entrave l'évolutivité et rend difficile la mise en place de structures de gouvernance solides.

Le sommet a également abordé l'évolution du rôle des marques dans ce paysage en pleine effervescence. La pression pour une plus grande visibilité a conduit certaines marques à donner la priorité à la quantité plutôt qu'à la qualité, ce qui se traduit par une dilution des messages. Cette tendance était évidente dans les discussions sur la monétisation des données et l'analyse de la production, où l'accent n'est plus mis sur l'élaboration d'un récit convaincant, mais simplement sur le fait d'être vu. Toutefois, comme l'ont souligné les présentations du sommet sur l'IA et les grands modèles linguistiques, l'innovation perturbatrice est en train de devenir la nouvelle norme. Les marques qui souhaitent maintenir leur positionnement à long terme adoptent une approche plus mesurée, en tirant parti des nouvelles technologies pour créer des campagnes plus ciblées et plus percutantes.

Ces deux sommets ont renforcé ma conviction que nous nous trouvons à un carrefour critique. Les défis sont multiples, mais les opportunités le sont tout autant. En tant que personne opérant à l'intersection de l'innovation, des industries réglementées et de l'écosystème des startups, je constate un besoin pressant d'une nouvelle race de dirigeants. Ces derniers doivent être capables de faire le lien entre les impératifs stratégiques et les activités opérationnelles et tactiques uniques. Ils doivent être à l'aise avec la technologie et capables de s'adapter, avec une compréhension profonde des données en tant que monnaie et de la technologie en tant qu'outil. Ce n'est qu'à cette condition que les organisations pourront espérer naviguer avec succès dans ce paysage complexe et saisir les opportunités qui s'offrent à elles.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

S'inscrire à ma lettre d'information

Haider Alleg

Événement TechEx

Haider Alleg

NextPharma Dubrovnik 2020

Haider Alleg

EyeforPharma Tokyo 2020

Haider Alleg

Événement TechEx 2022