Artefacts de notre formation

Tables des matière des artefacts :

1. Tableau Lectures individuelle/Articles réflexif

2. Sessions de formation

 – Multi-culturalisme 

 – Alignement entreprises IT & pilotage stratégique

 – Machine Learning

 – Méthodologie

 

 – Coaching d’équipe (réalisé entre nous)

 

3. Projets

 – Cimo

 – Duokey

 – Community Team Academy 

 – Devpro

 

4. Voyage apprenant

Lisbonne (Web Summit) & Malaga (Upscale conf.)

Tableau LI/AR :

 

Joiakim D. LI Crypto
Joiakim D. LI Prise de décisions
Joiakim D. LI Radical Candor
Rafael C. LI Build an LLM
Rafael C. LI analyses prédictives
Rafael C. LI Transfert de connaissances
Térence L. LI Create your own research assistant
Térence L. LI Machine Learning
Térence L. LI
Guillaume D. LI LangChain
Guillaume D. LI IA explications
Guillaume D. LI Stratégie IT PME
Zotrim U. LI Deep Learning
Zotrim U. LI Manager une équipe
Zotrim U. LI Transformation digitale
Hugo F. LI C2PA
Hugo F. LI Projets d’intégration IT
Hugo F. LI LI – CPUs Hugo Fairon
Hugo F. AR Intégration d’équipe
Hugo F. AR Open Data (pas corrigé)
Hugo F. AR Motivation et organisation (pas terminé)

 

Sessions de formation :

SF1 – Mutliculturel :

Le sujet traité dans cette session de formation explore les défis et opportunités du travail dans un monde globalisé et digitalisé. Nicolas Debons partage son parcours international et ses expériences, mettant en avant l’importance de l’adaptabilité et de la collaboration multiculturelle. Il aborde les enseignements clés tels que la flexibilité géographique, la communication adaptée, et l’importance de la confiance et des langues dans un environnement professionnel international. Les outils numériques, la gestion des différences culturelles, et l’externalisation y sont également présentés comme des piliers pour réussir dans ce contexte. Enfin, il conclut sur l’importance de la curiosité et de l’ouverture face aux changements pour relever les défis du travail globalisé.

Rapport de Session de Formation

SF2 – Machine Learning :

Cette session de formation ses déroulés en deux parties. la première était une introduction au concepts de machine learning et son utilisation dans des projets. nous avons ensuite pu apporter notre projet Cimo afin de travailer sur des exercices concrets.

La session de formation, animée par Andrei, a exploré les bases historiques et théoriques du Machine Learning, de ses origines avec Alan Turing à ses applications modernes. Les sujets couverts incluent les principes fondamentaux (classification, régression, apprentissage supervisé, non supervisé et semi-supervisé), les concepts clés (fonction de perte, dimension VC, embeddings) et des algorithmes courants (réseaux de neurones, clustering, analyse de séries temporelles). Elle a également mis en lumière les défis tels que l’équilibre entre complexité et généralisabilité, et l’explicabilité des modèles. Des outils pratiques comme Scikit-Learn ont été présentés pour faciliter l’expérimentation.

La deuxième partie a couvert la gestion des valeurs manquantes, en analysant les risques liés au remplacement par la moyenne et les alternatives comme l’utilisation des « NaN ». L’importance de la qualité des données, la validation croisée, et les dangers de la sur-optimisation ont été soulignés pour garantir des modèles fiables. Les techniques de sélection de caractéristiques, de clustering, et de réduction de dimensionnalité ont été explorées pour optimiser l’analyse des données. Enfin, l’interprétation des résultats dans un contexte commercial, la distinction entre causalité et corrélation, ainsi que l’adoption d’une approche adaptative en data science ont été identifiées comme essentielles pour des analyses pertinentes et robustes.

Cette session de formation a pu nous aider à avancer dans notre projet en cernant les pistes à aborder pour le projet Cimo.

Rapport de session de formation

SF3 – Alignement IT et pilotage stratégique :

La session de formation a exploré les fondamentaux de la transformation digitale, de l’alignement stratégique et des outils de pilotage. Elle a clarifié les notions de vision, mission et valeurs comme repères pour orienter les actions de l’entreprise. Le rôle du digital dans l’optimisation des processus et la création de valeur a été mis en avant, notamment à travers l’automatisation et la réponse rapide aux attentes clients. L’importance de l’alignement entre les stratégies IT et business a été soulignée, avec les KPI et tableaux de bord comme outils clés pour suivre les performances, ajuster les actions et faciliter la communication.

La session de formation a détaillé la conception de tableaux de bord prospectifs, de la définition des objectifs stratégiques à la collecte de données et au suivi des indicateurs. Les outils Business Model Canvas et Value Proposition Design ont été introduits pour structurer les approches et répondre aux besoins clients. Des exemples concrets, tels que les projets CIMO et DuoKey, ont illustré l’application des concepts, montrant comment aligner les projets sur les objectifs stratégiques.

En conclusion, la SF a insisté sur l’importance d’une approche intégrée et itérative, combinant rigueur stratégique et outils numériques pour maximiser l’impact des initiatives de transformation.

Rapport de session de formation 

 

SF4 – Méthodologie :

Cette session de formation n’a pas été instaurée en réponse à un besoin spécifique pour un projet, mais a été organisée pour couvrir un module obligatoire. Pendant quatre demi-journées, nous avons discuté et effectué des exercices sur la méthodologie de recherche pour un travail de Bachelor. Cette formation nous a grandement aidés car nous étions initialement sans idée de comment aborder notre travail de Bachelor.

Nous avons commencé par des recherches sur les moteurs de recherche d’articles scientifiques : Google Scholar, PubMed, Scopus, IEEE et ScienceDirect. Chacun de ces moteurs a ses propres avantages et inconvénients, notamment en termes de facilité de recherche, de consultation de la valeur d’un article (nombre de citations ou score de l’article) et des thèmes des articles.

Ensuite, nous avons lu des travaux de Bachelor et discuté de leurs points d’amélioration ou de la validité de leurs sources. Nous avons également pu comprendre comment structurer un travail de Bachelor. Pour cela, une méthodologie de recherche doit être rédigée pour inclure les points suivants :

  • Justification du choix du sujet de recherche : Qu’est-ce exactement ?
  • Analyse de cinq étapes clés pour justifier le choix du sujet de recherche :
    1. Identification d’un problème non résolu
    2. Pertinence sociétale
    3. Applicabilité pratique
    4. Passion personnelle
    5. Capacité à contribuer à la théorie existante

Des exemples de situations qui pourraient servir de justification pour le choix d’un sujet sont également fournis. Cette formation nous a permis d’avoir une idée claire des lignes directrices de notre travail de Bachelor. 

Coaching

La séance de coaching s’est concentrée sur l’amélioration de la gestion de projet et la collaboration au sein de l’équipe. L’objectif principal était de renforcer l’efficacité collective en mettant en place des pratiques structurées et en clarifiant les rôles et responsabilités.

Les principaux axes de travail identifiés incluaient :

Séparation des rencontres stratégiques et du travail personnel : Un système de réunions hebdomadaires et journalières a été instauré pour organiser le travail et définir clairement les livrables.

Rôle du chef de projet : Un chef de projet clairement identifié a été défini pour structurer les efforts collectifs et assumer les responsabilités principales.

Définition des tâches et livrables : Chaque tâche a été décrite avec précision, incluant les actions attendues et leur lien avec les autres membres.

Rotation du leadership : La mise en place d’un système de tournus pour le leadership a permis d’impliquer chaque membre et de diversifier les approches.

Prise de décision collégiale : Les divergences d’opinion sont prises en compte via des présentations de propositions multiples, favorisant l’intelligence collective.

Chaque point a été supervisé par des membres spécifiques qui ont expérimenté et partagé des outils pour améliorer la performance de l’équipe. Par exemple, sur le point des tâches et livrables, des outils ont été testés pour clarifier les responsabilités et réduire les ambiguïtés.

L’expérience de coaching a permis de mieux structurer le travail de groupe, d’améliorer la communication et de développer les compétences en leadership collaboratif. Elle a également souligné l’importance d’un environnement favorisant la participation active et les échanges constructifs.

En conclusion, cette initiative a enrichi l’équipe en apportant des méthodes concrètes et applicables pour des projets futurs, tout en renforçant la cohésion et les performances individuelles et collectives. 

Rapport de Coaching d’équipe

Projets Cimo

Cimo – Projet de Business Intelligence et Machine Learning

Le projet Cimo a été celui dans lequel j’ai été le plus impliqué. J’ai choisi de prendre le rôle de chef de projet en début de semestre. Cimo est une entreprise industrielle spécialisée dans le secteur chimique, située à Monthey. Ce projet est la suite d’une collaboration de longue date entre Cimo et notre équipe. J’ai eu la chance de participer à l’initiation de cette collaboration et de suivre l’évolution du projet au fil des années.

Objectifs du Projet

Dans le cadre de ce semestre, le projet était divisé en deux grandes parties :

Migration et amélioration du dashboard existant : La première partie consistait à migrer un dashboard déjà développé lors du semestre précédent vers l’environnement de Cimo, tout en apportant des améliorations sur les visuels et les indicateurs de mesure. Le but était de rendre les données plus accessibles et utiles pour l’entreprise.

Proposition d’intégration de Machine Learning : La seconde partie visait à proposer une intégration de modèles de machine learning pour valoriser les données collectées par les capteurs sur les sites pollués et les analyser plus efficacement.

 

 

Mon rôle de Chef de Projet :

En tant que chef de projet, j’ai assuré la communication entre Cimo et l’équipe tout en prenant un rôle de leader. L’objectif n’était pas d’imposer des solutions, mais plutôt d’instaurer une dynamique de travail collaborative avec l’équipe, tout en assurant une gestion optimale du projet.

Au début, nous avons proposé à Cimo d’adopter une gestion de projet SCRUM avec des sprints de deux semaines. Cette approche visait à nous permettre de travailler efficacement sur les deux volets du projet simultanément. Cependant, Cimo m’a rapidement informé qu’ils ne pouvaient pas nous accorder autant de temps que prévu. Cela a conduit à une réévaluation de notre approche de gestion de projet, et nous avons opté pour un système Kanban avec Azure DevOps.

Dans ce nouveau cadre, nous avons commencé par définir un product backlog avec les objectifs du projet. Ensuite, nous avons découpé ces objectifs en tâches réalisables et quantifiables. Nous avons programmé des sessions de travail de 1,5 jours par semaine, où nous avancions ensemble sur le projet. Cela a permis d’optimiser la gestion du temps et d’activer une dynamique collaborative, bien que certaines sessions aient été difficiles à coordonner.

 

 

Problématiques Rencontrées :

L’un des défis majeurs a été la compréhension des processus de collecte des données chez Cimo. En effet, bien que nous disposions des données collectées par les capteurs, il était difficile de saisir exactement comment ces données étaient utilisées dans le contexte de Cimo. Afin d’améliorer cette compréhension, nous avons proposé une visite sur le terrain des installations de Cimo, ce qui nous a permis de mieux saisir les besoins et les défis spécifiques de l’entreprise. Cependant, cette visite a eu lieu tardivement dans l’année, et nous n’avons pas pu exploiter pleinement les informations recueillies.

Transformation des Données et Amélioration du Dashboard :

L’un des aspects essentiels du projet a été de modifier et améliorer le processus de traitement des données pour rendre les informations utilisables dans Microsoft Fabric. Le processus que nous avons suivi s’articule en plusieurs étapes :

Restructuration des données brutes (bronze) :
Nous avons créé un Lakehouse pour stocker à la fois les fichiers existants et les nouveaux fichiers de données collectées. Une pipeline de traitement DataPipelineRawImportation a été mise en place pour importer et transformer les fichiers Excel en une table brute, que nous avons appelée rawLIMS.

Transformation des données en données structurées (silver) :
Un notebook appelé NotebookRawToSilverTransformation a été utilisé pour convertir les données brutes en une table structurée (nommée silverLIMS). Ce processus inclut la gestion des évolutions des unités de mesure et des paramètres.

Création des données enrichies (gold) :
Les données structurées ont ensuite été transformées en trois tables distinctes :

factMesure_gold (mesures)

dimLieu_gold (lieux de mesure)

dimParametre_gold (paramètres mesurés)
Ces tables ont été envoyées dans un entrepôt de données (data warehouse) pour une exploitation future.

Visualisation et exploitation :
Nous avons conçu un modèle sémantique et créé des dashboards interactifs sur Power BI afin de rendre les données plus accessibles et exploitables pour Cimo.

Après avoir mis en place ces bases, nous avons ajusté le dashboard pour intégrer les retours des utilisateurs principaux. Ces ajustements ont permis de mieux répondre à leurs besoins en matière de visualisation des données et d’analyse.

 

Intégration de Machine Learning

Nous avons ensuite exploré les possibilités d’intégrer des modèles de machine learning chez Cimo. Deux approches ont été étudiées :

 

Approche Non Supervisée : Clustering (K-means, DBSCAN, et SOM)

Objectif :
L’objectif de l’approche non supervisée était d’analyser les relations entre la conductivité, la température, la concentration de chlorure (Cl⁻) et de nitrate (NO₃⁻) afin d’identifier des clusters naturels dans les échantillons d’eau, ce qui pourrait être utile pour détecter des zones de pollution ou d’autres phénomènes environnementaux.

Étapes du Processus :

Préparation des données : Les données ont été normalisées pour traiter les différentes échelles des variables, telles que la conductivité en µS/cm et la température en °C. Les valeurs manquantes ou aberrantes ont été gérées.

Techniques utilisées :

Analyse en Composantes Principales (ACP) : Réduction de la dimensionnalité des données tout en conservant l’information essentielle.

Clustering avec K-means : Identification des groupes naturels dans les données en fonction des variables étudiées.

DBSCAN : Détection d’anomalies et de zones denses dans les données.

Carte Auto-Organisatrice (SOM) : Exploration des relations complexes entre les variables.

Évaluation des clusters :
Le score de silhouette a été utilisé pour évaluer la qualité des clusters. Des visualisations 2D et 3D ont été générées pour mieux comprendre les regroupements.

Résultats :
Le clustering a révélé des groupes d’échantillons avec des concentrations similaires de Cl⁻ et de NO₃⁻. Ces informations pourraient être utilisées pour identifier des zones de pollution ou pour observer des tendances saisonnières.

 

 

Approche Supervisée : Prédiction de la Concentration en Oxygène Dissous (O₂)

Objectif :
L’objectif de l’approche supervisée était de prédire la concentration en oxygène dissous (O₂) en utilisant des variables physico-chimiques et environnementales comme la température, le pH, la conductivité, les nitrates, les phosphates et les chlorures.

Étapes du Processus :

Préparation des données : Les données ont été pivotées pour que chaque paramètre soit une colonne. Les valeurs manquantes ont été remplacées par la moyenne des colonnes correspondantes.

Modélisation :

Régression Random Forest : Ce modèle de régression a été utilisé pour prédire la concentration en oxygène dissous en fonction des caractéristiques sélectionnées.

Validation : Des métriques comme l’erreur absolue moyenne (MAE), l’erreur quadratique moyenne (RMSE) et le coefficient de détermination (R²) ont été utilisées pour évaluer la précision du modèle. La validation croisée a permis d’assurer la robustesse du modèle.

Résultats :
Les résultats ont montré que le modèle était capable de prédire la concentration en oxygène dissous avec une bonne précision. Des graphiques de prédiction vs. valeurs réelles et des histogrammes des résidus ont été utilisés pour évaluer les performances du modèle.

 

Conclusion des Deux Approches :

Approche non supervisée : Elle permet de segmenter les données en fonction des concentrations de Cl⁻ et de NO₃⁻, offrant ainsi une compréhension plus approfondie des motifs sous-jacents et des relations complexes entre les différentes variables chimiques et environnementales.

Approche supervisée : Elle permet de prédire de manière fiable la concentration en oxygène dissous, ce qui est crucial pour évaluer la qualité de l’eau et les conditions écologiques des sites à réhabiliter.

En combinant ces deux approches, nous obtenons une vue d’ensemble complète de la qualité de l’eau, en identifiant des zones présentant des caractéristiques similaires et en prédisant les paramètres essentiels à la gestion de l’environnement.

Projet Duokey

DuoKey, une entreprise fondée en 2021 à Lausanne, se spécialise dans la protection et le chiffrement des données. 

Contexte :
DuoKey développe un Proof of Concept (PoC) basé sur la technologie CTPA (Coalition for Content Provenance and Authenticity) pour lutter contre les deepfakes. Ce projet vise à garantir l’authenticité des contenus multimédias en vérifiant leur provenance.

Objectif :
Créer un PoC intégrant CTPA pour prouver l’authenticité des médias publiés, comprenant un backend réutilisable pour des applications futures et un frontend démonstratif.

Architecture :

Backend : Développé en Python, utilisant le cadre CTPA d’Adobe pour gérer les clés cryptographiques via DuoKey Cockpit.

Outils : DuoKey Cockpit et des solutions open-source pour l’intégration CTPA.

Étapes de Développement :

Design de l’API :

Spécification via Swagger.

Création d’une API pour signer les contenus multimédias.

Intégration avec DuoKey KMS :

Ajout des fonctionnalités de cryptage et décryptage.

Utilisation d’outils open-source pour CTPA.

Développement du Backend :

Codage en Python selon les normes CTPA.

Gestion des certificats et des métadonnées.

Tests et Validation :

Tests de conformité avec les normes CTPA et intégration avec Adobe.

Documentation et Collaboration :

Documentation via Confluence.

Règles de collaboration établies sur GitLab.

Durant ce projet j’ai pu réaliser la maquette via Figma en respectant leurs charte graphique. J’ai aussi pu réaliser une partie du frontend. 

 

Community Team Academy

Chaque année, un membre de chaque volée et de chaque Team Academy est invité à participer au projet Community Team Academy. Ce programme vise à encourager la collaboration inter-académies dans un environnement diversifié, permettant de partager des apprentissages tout en organisant des événements destinés à rassembler les différentes Team Academies.

En tant que représentant de ma volée, j’ai eu l’opportunité de m’impliquer activement dans ce projet. Cela incluait la participation aux séances hebdomadaires et à l’organisation logistique des différents événements. Le projet était structuré autour de pôles de travail, avec des missions spécifiques assignées à chaque membre chaque semaine.

Défis et Apprentissages

Au début du projet, la collaboration s’est révélée difficile. Les principales difficultés provenaient d’une gestion de projet perçue comme lourde et inefficace, ce qui compliquait l’exécution de tâches pourtant simples. Cette situation a engendré des frustrations parmi les membres des différentes académies.

Face à ces obstacles, les étudiants de la Business Team Academy, responsables du projet, ont organisé une session de brainstorming. Cet exercice a permis à chacun d’exprimer ses frustrations et de mettre en lumière les problèmes liés à la coordination et à la communication. Grâce à cette démarche collective, plusieurs solutions ont émergé :

Simplification de la gestion de projet : Les processus ont été allégés pour faciliter le suivi et l’accomplissement des tâches.

Réduction de la durée des séances : Les réunions hebdomadaires sont devenues plus courtes et plus ciblées.

Renforcement de la confiance et de l’écoute : Une atmosphère de travail plus collaborative et bienveillante a été instaurée, améliorant la dynamique du groupe.

Résultats et Conclusion

Ces ajustements ont transformé la dynamique du projet. La communication entre les membres s’est fluidifiée, et les objectifs hebdomadaires étaient atteints de manière plus efficace. Cette expérience a été riche en enseignements : j’ai appris l’importance d’une gestion de projet adaptée et de la prise en compte des ressentis de chacun pour renforcer la cohésion d’équipe.

En participant au Community Team Academy, j’ai également développé mes compétences organisationnelles et interpersonnelles. Cette expérience m’a offert une perspective unique sur le travail en collaboration inter-académique, et les solutions mises en place m’inspireront dans mes futurs projets.

 

Devpro

Le projet vise à créer un chatbot pour le site HES DevPro afin d’assister les utilisateurs des modules de formation continue. Ce chatbot a pour objectif de répondre aux questions fréquentes, simplifiant ainsi l’accès à l’information et soulageant le secrétariat. Il fournira des réponses sur des sujets tels que les conditions d’obtention de l’attestation didactique, les formations proposées, et autres informations disponibles sur le site.

Le projet se déroule en trois phases :

Analyse : Choix d’un chatbot IA customisable, de préférence open-source, et étude du contenu du site DevPro.

Prise de position : Sélection du chatbot, définition des scénarios conversationnels, et entraînement de l’IA.

Implémentation : Déploiement du chatbot, tests, et intégration des résultats.

J’ai participé au tout début du projet, où j’ai eu l’opportunité de m’initier à l’utilisation des modèles de langage large (LLM), notamment Ollama. Cette expérience a été très enrichissante, car elle m’a permis de mieux comprendre le fonctionnement de ces modèles et leur potentiel d’application. En parallèle, cette initiation s’est avérée particulièrement utile lors de notre Voyage Apprenant, où nous avons utilisé des modèles de transcription pour résumer efficacement les conférences auxquelles nous avons assisté. Grâce à ces outils, nous avons pu traiter rapidement les informations et extraire les points essentiels de chaque intervention, ce qui nous a permis de mieux organiser nos notes et d’enrichir nos projets avec des résumés clairs et précis. Cette expérience m’a non seulement permis d’approfondir mes compétences en traitement du langage naturel, mais aussi d’appliquer concrètement ces outils dans des contextes variés.

Voyage apprenant :

Lisbonne, Malaga – Novembre 2024

Puits initiatique du palais de la RegaleiraAu cours de ce semestre, nous avons organisé notre voyage d’apprentissage de deux semaines, une étape clé dans notre programme. La première étape a consisté à identifier les différentes conférences auxquelles nous pourrions assister en Europe. Ensuite, nous avons élaboré un budget comprenant le logement, les transports, les réductions sur les conférences, etc., avant de finaliser les réservations. Après réflexion, nous avons choisi de nous rendre à Lisbonne pour assister au Web Summit, puis à Malaga pour participer à la conférence Upscale.

Web Summit :

Le Web Summit 2024, qui s’est tenu à Lisbonne du 11 au 14 novembre, a attiré 71 528 participants venus de 153 pays. Plus de 3 000 entreprises, dont des géants tels qu’IBM, Meta, et SAP, ont exposé leurs innovations, avec un focus particulier sur l’intelligence artificielle. Cet événement a été un véritable carrefour d’innovations technologiques et de discussions sur l’avenir du numérique.

Les discussions lors du Web Summit ont abordé des sujets essentiels, comme l’intégration de l’intelligence artificielle dans différents secteurs, l’avenir du travail à l’ère du numérique, et les défis liés à la clarification des rôles au sein des équipes produits. Un autre aspect important a été la mise en avant de la participation féminine, avec 44 % des startups dirigées par des femmes, soulignant l’inclusivité croissante dans l’écosystème technologique.

Lors de cette grande conférence, j’ai eu l’opportunité d’assister à des conférences sur l’IA et son utilisation future dans le monde professionnel, ainsi qu’à des présentations sur le hardware, avec des entreprises comme Qualcomm. De plus, j’ai pu rencontrer divers acteurs du secteur et échanger avec leurs représentants sur leurs stands. Cette expérience m’a non seulement permis d’enrichir mes connaissances en technologie, mais aussi d’améliorer mes compétences en anglais et de sortir de ma zone de confort en interagissant dans un environnement international.

Nous avons également réussi à résumer toutes les conférences auxquelles nous avons assisté, en enregistrant les informations utiles pour nos projets actuels et notre futurs. Ces résumés sont disponibles dans notre rapport de Voyage Apprenant (VA), et constituent une ressource précieuse pour l’ensemble de l’équipe.

Nous avons aussi profiter pour visiter Sintra et Puits initiatique du palais de la Regaleira  : 

Lisbonne est une magnifique ville ou nous avons faits des rencontres et passé de superbes moments. J’ai adorer pouvoir échanger si librement avec chacun. J’ai pu mieux m’intégrer et nouer des relations. Cette formation permet de réunir des gens ouverts d’esprits et respectuer et ces très agréables.

Conférence upscale Malaga :

La conférence Upscale Conf 2024 s’est tenue à Málaga les 19 et 20 novembre, se concentrant sur l’impact de l’intelligence artificielle (IA) dans les domaines du design et de la créativité.

L’événement a réuni plus de 20 intervenants internationaux issus d’entreprises de premier plan telles que Netflix, Google, Civitai, Freepik, Eleven Labs, GitHub et R/GA.

Les discussions ont porté sur l’utilisation de l’IA générative pour accélérer la création, l’application de l’IA dans l’industrie cinématographique hollywoodienne, et la manière de lancer une startup en seulement 10 minutes grâce à l’IA.

Des ateliers interactifs ont permis aux participants d’apprendre à intégrer l’IA dans la production audiovisuelle et l’utilisation des IA.

Organisée par Freepik en collaboration avec des partenaires tels que Sohrlin Andalucía, Tesla, Awwwards, Yes We Tech, The Valley et La Gauss X, et sponsorisée par Google Cloud, Civitai, la Cátedra Telefónica UMA et MailSuite, la conférence a attiré près de 500 participants.

les résumés des conférences et workshop suivis sont disponibles dans le rapport de VA.

Cette conférence s’est focalisée sur l’utilisation de l’IA dans la création de contenus et l’art, un domaine en pleine transformation grâce à ces technologies. J’ai participé à un atelier sur la création d’avatars avec l’IA et la production de contenu associé, découvrant de nombreux outils innovants. Bien que Málaga m’ait moins plu que Lisbonne, la proximité de la plage a apporté une touche agréable à l’expérience.

Les conférences marquantes :

« The Path to a Progressive Future » – Robert Habeck :

Intégration éthique de l’IA pour soutenir la démocratie et l’innovation.

Simplification des processus administratifs pour favoriser l’innovation des PME.

Transition énergétique comme pilier d’une Europe durable et compétitive.

« Transforming Experiences with Generative AI » – Cristiano Amon :

Avantages de l’Edge Computing (performances accrues, confidentialité des données).

Applications pratiques : interactions vocales, expériences multimodales (banques, voitures connectées).

Plateformes ouvertes comme AI Hub pour démocratiser l’accès à l’IA.

« Meet Your New Robot Co-Worker » – Peggy Johnson :

Robots comme assistants pour les tâches répétitives et fatigantes.

Technologie LIDAR et apprentissage autonome pour améliorer l’efficacité en milieu industriel.

« Creating the Core of AI Infrastructure » – Michael Intrator :

Importance des infrastructures spécialisées pour répondre aux besoins croissants de l’IA.

Collaboration stratégique avec NVIDIA pour optimiser les capacités de calcul.

« Generation AI: A New Era for Creators and Businesses » :

IA comme catalyseur pour démocratiser la créativité et réduire les barrières d’entrée dans les industries créatives.

Applications dans la production cinématographique et le branding pour entrepreneurs.

Ces conférences démontrent comment l’IA transforme les processus créatifs, démocratise l’innovation, et redéfinit les infrastructures pour relever les défis technologiques. Elles offrent des perspectives inspirantes sur la manière dont l’IA peut être utilisée pour un progrès sociétal et économique.

Rapport de VA