Qu’est-ce qu’un jumeau numérique?


Actualité publiée le 24 août 2022

Avec le développement de l’industrie 4.0 et la digitalisation croissante de l’économie, la technologie du jumeau numérique prend de l’essor et conquiert un public toujours plus vaste. En quoi consiste le « digital twin » et quelles sont ses retombées sur la production, l’industrie et l’entrepreneuriat ?

 

Le jumeau numérique : définition 

Un jumeau numérique est un modèle digital conçu afin de refléter un objet physique. Pour y parvenir, les informaticiens équipent l’objet réel à copier de capteurs qui produisent des données à propos de : sa production d’énergie, sa température, son fonctionnement général, etc. Ces informations à propos de l’objet original sont ensuite envoyées à un système de traitement qui les applique à une copie virtuelle, le fameux jumeau numérique.

 

Une fois en possession de ces informations, le digital twin peut exécuter des simulations et générer des améliorations à propos du comportement (ou de la performance) de l’objet d’origine.

 

Bien plus performant qu’un processus de simulations, le jumeau numérique permet d’utiliser des modèles virtuels et donc d’accéder au très haut niveau de complexité accordé par le digital et l’IA. Ainsi, un digital twin peut exécuter un nombre infini de simulations et étudier une infinité de processus.

 

En effet, le jumeau numérique, n’est pas seulement connecté à son objet originel : il en reçoit les informations en temps réel (ce que ne permet pas la méthode de la simulation). Il offre à ce titre d’instaurer un va-et-vient d’informations : depuis l’objet d’origine vers son jumeau et vice-versa. La mise à jour constante et automatique des données traitées par le digital twin combinée à sa puissance de calcul lui permet de démultiplier les points de vue et d’ainsi résoudre des problèmes très complexes.

 

 

Quels sont les avantages du jumeau numérique en entreprise ?

Dans le milieu de l’entreprise, la technologie du jumeau numérique est pleine d’atouts :

 

  • Il permet, en utilisant la réalité augmentée, de projeter en salle de réunion et en temps réel les données que traite le jumeau numérique à propos de l’objet originel. Les participants peuvent ainsi, en direct visualiser les effets des améliorations à venir ou mieux comprendre les points problématiques dans la conception de l’objet réel.
  • Le digital twin peut être manipulé à distance, ce qui offre de nombreuses opportunités dans le cadre de l’entraînement. En utilisant la technologie de la réalité virtuelle, il devient possible de s’entraîner à manipuler de loin l’objet, ou encore de visiter virtuellement une installation à réparer, ce qui permet au technicien de prévoir les bons outils par exemple.
  • Le jumeau numérique est aussi un élément centralisateur de la collaboration des employés d’une structure. En effet, il est possible de travailler à plusieurs autour d’un digital twin, ce qui soude les équipes et favorise le travail collaboratif.

 

À titre d’exemple, la technologie du jumeau numérique intéresse vivement les villes et les métropoles, qui y voient un formidable outil pour remodeler les zones urbaines : dessiner les terrasses de café, améliorer les parkings et le réseau de transports publics, etc.

 

 

Le jumeau numérique dans la conception de produit

Ces avantages du jumeau numérique sont, appliqués à la conception de produit, vecteurs du développement d’une industrie connectée ultra-performante (la fameuse industrie 4.0). En effet, utiliser des digitals twins permet de rendre bien plus efficaces les étapes de conception et de recherche autour d’un nouveau produit. La quantité colossale de données récoltées offre aux entreprises de véritablement affiner leur réflexion et d’aboutir à un produit dont ils sont certains de son succès avant même sa mise en production.

 

Le jumeau numérique offre aussi de veiller au bon fonctionnement du produit, même après sa mise en production. Les systèmes de capteurs, initialement utilisés pour récolter des données à analyser, permettent alors de surveiller les systèmes de production et de maintenir une efficacité optimale durant toutes les étapes de fabrication. 

 

En fin de vie d’un produit, le jumeau numérique permet aux industriels de repérer plus aisément les matériaux qui peuvent être récupérés avant que le produit ne soit traité ou recyclé.

 

 

Jumeau numérique : les limites

À l’heure actuelle, les limites à la démocratisation des jumeaux numériques tiennent à la nécessaire complexité des objets à copier. En effet, le digital twin a besoin d’une quantité colossale de données afin de se nourrir, de traiter et d’analyser des informations. Or, tous les produits actuellement en fabrication n’ont pas ce haut niveau de complexité.

 

Instaurer un jumeau numérique a, naturellement, un coût et c’est pour cette raison que l’on voit son utilisation se pérenniser dans quelques secteurs seulement :

 

  • Les projets de grande ampleur, comme la construction de bâtiments, ponts et projets de génie civil.
  • Les projets mécaniquement complexes, comme la création de turbines ou d’avions.
  • La production d’équipements électriques nécessitant des mécanismes de transmission d’énergie.

 

En somme, les secteurs de la fabrication automobile, de l’ingénierie systèmes, de la production d’avion ou les services publics d’électricité sont les domaines de l’économie qui ont le plus recours au jumeau numérique. Dans ces diverses disciplines, l’utilisation de cette technologie offre aux entreprises de réduire les temps de pause des équipements et d’augmenter considérablement leur production.

 

 

Jumeau numérique : quel avenir ?

Le développement fulgurant du marché des jumeaux numérique et les excellents résultats de ce dispositif pour les professionnels de l’industrie laissent entendre que la méthode va se développer ces prochaines années. En effet, on assiste à une révolution dans l’industrie, qui se digitalise et se numérise afin d’être encore plus performante.

 

Les modèles d’exploitation de l’industrie sont actuellement en train de changer, l’intégration du numérique aux processus même de production requiert que les professionnels se dotent d’équipements et d’installations leur permettant de pleinement accueillir les potentialités du digital dans leur activité professionnelle. Parmi eux, les jumeaux numériques ont toute leur place en raison de leur haut potentiel pour les entrepreneurs et sont un élément central pour lancer l’industrie 4.0.

 

La conception d’un jumeau numérique est un exercice de haut vol, que seuls les ingénieurs en informatique sont en mesure de réaliser avec succès. À l’ESGI, les étudiants en Mastère spécialisé en Ingénierie du Web apprennent tout des techniques, des leviers et des contraintes de développement d’un digital twin.

 

 

En 2020, le marché des jumeaux numériques était encore évalué à 3,1 milliards de dollars. Déjà les experts du secteur considèrent qu’il atteindra près de 48 milliards de dollars dès 2026.

L’intelligence Artificielle appliquée à la cybersécurité


Actualité publiée le 2 août 2022

La digitalisation du travail, l’industrie 4.0 et la croissance des flux sur le Net des professionnels comme des particuliers induit que les entreprises renforcent leur niveau de cybersécurité. En parallèle, pirates et cybercriminels rivalisent d’ingéniosité et de technicité afin de percer les boucliers numériques mis en place. Le recours à l’IA pour protéger les systèmes informatiques semble devenu inévitable : pourquoi et comment ?

 

Pourquoi doit-on recourir à l’Intelligence Artificielle en matière de cybersécurité ?

La pandémie de la Covid 19 a multiplié par deux le nombre de cyberattaques visant les professionnels. La cybersécurité est donc devenue un enjeu de taille pour les entreprises. Désormais, la grande majorité des applications professionnelles sont hébergées dans le Cloud. Cette présence en ligne offre de nombreuses opportunités d’intrusion aux cybercriminels qui agissent en ligne.

 

Le recours à l’IA en cybersécurité offre, en dotant les applications des méthodes du Machine Learning, de diminuer la part d’erreur humaine. En matière de sécurité informatique, la faille de l’informaticien ou une mauvaise configuration du système peut avoir des conséquences désastreuses. Pire, il peut s’avérer très complexe de solutionner ces erreurs ou de trouver le point d’ancrage et les modifications à effectuer. De plus, l’efficacité humaine est mise à mal face aux tâches répétitives. La configuration des terminaux d’une entreprise, en plus d’être répétitive, est une tâche chronophage qui induit régulièrement des erreurs graves.

 

L’erreur humaine est aussi induite par la fatigue. En termes de cybersécurité, de nombreuses alertes ou notifications d’intrusion saturent les services informatiques. La fatigue décisionnelle peut alors avoir un impact colossal sur la sécurité des infrastructures. En prenant des décisions seules ou en sélectionnant les alertes importantes, l’IA effectue un premier travail de filtre qui offre aux ingénieurs informatiques de se concentrer sur les événements majeurs. Ils peuvent aussi s’intéresser uniquement aux problèmes conséquents, en laissant l’IA auto-apprenante prendre en charge des incidents de niveau inférieur.

 

L’IA, avec sa force de calcul et son extrême rapidité, vient pallier les longs délais de réponses que peut parfois rencontrer l’être humain. L’automatisation et la réduction colossale des temps d’échanges offrent de mieux gérer les intrusions et d’intervenir avant qu’un virus n’ait contaminé l’intégralité du système par exemple.

 

L’IA offre aussi d’identifier et d’anticiper les nouvelles menaces. L’application va moduler des schémas d’attaque et d’événements afin, grâce au Machine Learning, de reconnaître les prémices d’une attaque et d’ainsi y répondre très rapidement.

 

Malheureusement, sur ce point, les cybercriminels sont eux aussi en mesure d’exploiter l’IA à leur avantage. On voit ainsi l’automatisation se répandre dans les processus structurels des incidents, comme c’est l’exemple du ransomeware LockBit, avec qui il suffit d’une demi-heure pour lancer une attaque.

 

 

Intelligence Artificielle et cybersécurité : l’âge de la Cyber-IA

D’excellentes entreprises se spécialisent dans la Cyber IA, à l’instar de Darktrace, qui protège plus de 6 000 structures professionnelles. Ces spécialistes ont choisi d’adopter un concept révolutionnaire : leur IA auto-apprenante offre aux systèmes de sécurité de comprendre l’entreprise et de la défendre avec efficacité de manière autonome.

 

 

Idéalement, une IA utilisée en cybersécurité se concentre sur l’interprétation des schémas qui illustrent les attaques type dont l’organisation a déjà été victime ou est susceptible de l’être. Ainsi, en cybersécurité, l’IA permet de déterminer si un événement se produira probablement ou non.

 

En parallèle, le Machine Learning permet d’optimiser une tâche à son niveau maximal de performance. Ainsi, l’analyse et l’interprétation des données restent à la charge des humains, tandis que le Machine Learning structure et rend lisible les données de cybersécurité.

 

Ainsi, l’IA en cybersécurité permet de :

 

  • Classifier les données en affectant des catégories.
  • La recommandation d’actions à effectuer. Ces recommandations améliorent les mesures d’un système de sécurité.
  • Proposer une synthèse des possibilités d’actions offertes aux équipes de sécurité informatique.
  • Effectuer des prévisions prédictives fiables.

 

 

Cybersécurité : exemples d’utilisation de l’IA

L’IA contribue, pour une entreprise, à s’assurer de la conformité aux réglementations en matière de protection des données. En classifiant les informations et en appliquant à chaque catégorie un protocole sécuritaire spécifique, l’entreprise incrémente considérablement son niveau sécuritaire. Pour aller plus loin, une IA dotée des processus du Machine Learning peut analyser le profil comportemental des utilisateurs et alerter les équipes en cas d’internaute suspect. Il en va de même pour le profil type des performances des postes de travail : un ordinateur au comportement suspect peut ainsi être rapidement analysé afin de détecter la présence éventuelle d’un virus.

 

À ce titre, l’IA est très utilisée dans les processus de tests d’intrusions. Ces tests offrent de trouver des vulnérabilités et d’y appliquer des techniques et des outils sécuritaires afin de déterminer si leur niveau de cybersécurité est implémenté. Or, dans ce processus, l’arborescence des choix à suivre ou à exploiter devient vite énorme et difficile à traiter pour l’esprit humain. Ceci explique que l’IA a fait ses preuves dans le secteur de la détection des fraudes en ligne, domaine très lié à la cybersécurité.

 

On voit donc que l’utilisation de l’IA en cybersécurité doit être soutenue par des opérations de contextualisation des algorithmes. L’intervention des équipes techniques est capitale dans le cadre de la cybersécurité, mais aussi face à des questions plus éthiques auxquelles l’IA ne peut pas encore totalement répondre. En recherchant les solutions constamment plus performantes et optimisées, le Machine Learning peut parfois faire des choix qui ne sont pas viables écologiquement ou humainement, par exemple.

 

Désormais, c’est dans la gestion de la blockchain que les professionnels de l’IA cherchent à lui faire assurer des missions de cybersécurité. L’ESGI offre à ce titre à ses étudiants de se former au plus haut niveau académique et technique en ingénierie de l’informatique. Grâce à leur parcours en alternance, les diplômés de l’établissement bénéficient d’une solide culture de l’entreprise et développent en parallèle de leur diplôme leurs compétences métiers. Ils sont donc parfaitement en mesure d’intégrer l’IA dans les processus de cybersécurité de leur future entreprise, en l’adaptant à ses spécificités et à son secteur d’activité.

 

 

Les entreprises qui misent sur l’IA pour assurer une partie de leurs opérations de cybersécurité en dotent l’intégralité de leur chaîne de travail.

Data Scientist VS Data Engineer


Actualité publiée le 26 juillet 2022

L’explosion du Big Data et son utilisation dans la business intelligence ont eu pour effet positif de développer de nouveaux métiers, liés au digital et au traitement des données. Parmi eux, les Data Scientists et Data Engineers. Que valent ces deux professions et vers laquelle s’orienter au titre d’un parcours supérieur en ingénierie informatique ?

 

Le Data Scientist sur le devant de la scène

Le métier de Data Sientist a été nommé « métier le plus sexy de notre siècle » par la Harvard Business Review en 2012, ce qui a eu pour effet de mettre la profession sous les feux des projecteurs.

 

Le Data Scientist est un analyste de haut vol, qui convertit des données brutes en idées précises, applicables dans le domaine de l’industrie (ou de l’économie) dans lequel il évolue. Grâce aux modèles statistiques qu’il utilise et à sa connaissance pointue du Machine Learning, il résout des problèmes business jusqu’ici insolvables.

 

C’est donc un analyste des données doublé d’un excellent informaticien. Le Data Scientist connaît en effet la programmation, la modélisation algorithmique et le traitement des Data à très grand volume. En effet, afin de développer des modèles de Machine Learning suffisamment performants pour apporter de la valeur ajoutée à son entreprise, le Data Scientist maîtrise la programmation statistique (avec Panda en tête) et les langages de programmation des experts, à l’instar de Python ou R. Jupyter.

 

L’engouement pour le métier rend la profession riche et, parfois, difficile à intégrer. Pour être un bon Data Scientist, il faut savoir gérer les nouvelles technologies, qui se renouvellent tous les cinq ans, démontrer de solides compétences d’informaticien et de statisticien et faire preuve d’une véritable compréhension métier. C’est notamment ce qui explique la rémunération très attractive d’un poste de Data Scientist : entre 40 et 50 KE en début de carrière (et en île de France) et parfois plus de 80 000 euros pour un Data Scientist Senior.

 

 

Data Engineer : le point de départ

Le rôle principal du Data Engineer, c’est de créer des architectures modèles afin d’acquérir, de stocker et d’analyser un flux colossal de données. Il doit définir la manière dont les données sont intégrées au système de stockage de l’entreprise et transformées afin qu’elles soient analysables : c’est le ETL (pour Extract, Transfoorm and Load).

 

C’est lui qui est le point de départ de toute exploitation des données, en fournissant la solution afin d’extraire les informations brutes du flux du Big Dtaa et de les conserver de manière viable et sécurisée. Si le traitement des Data était une maison, ce serait le Data Engineer qui en construirait les murs et les canalisations et qui assurerait sa viabilisation et ses raccords en eau et en électricité !

 

En pratique, le Data Engineer va développer, entretenir et tester son architecture (bases de données comme systèmes de traitement à grande échelle) afin d’assurer un flux constant d’infirmations destiné aux équipes de Data Scientist.

 

 

Data Scientists et Data Engineers : des rôles complémentaires

Il est difficile d’opposer radicalement les professions de Data Scientists et Data Engineers tant elles sont intriquées dans l’obtention des résultats des analyses de données. En effet, pour que le Data Scientist puisse construire des modèles autour des données collectées (et les exploiter plus efficacement), il doit se baser sur un environnement numérique propre à accueillir et structurer ces informations dématérialisées.

 

En somme, c’est le Data Engineer qui construit les architectures logicielles nécessaires afin de collecter et de traiter les données à très grandes échelle. Il construit la pipeline qui est transférée au Data Scientist afin de lui permettre de mettre ses modèles en action, grâce au flux continu instauré entre les serveurs et les applications. Sans cette base, le Data Scientist n’est pas en mesure de travailler de manière optimale et ne peut pas traiter les informations.

 

Le rôle du Data Engineer est donc crucial, c’est lui qui soutient toutes les architectures capables de tirer de la modélisation des données des objectifs stratégiques concrets qui représentent de la valeur pour son entreprise. Il est donc indispensable à l’exploitation du Big Data, ce qui explique que sa rémunération soit très élevée. En début de carrière, un jeune Data Engineer peut gagner près de 40 000 euros annuels et jusque 80 000 euros après quelques années d’expérience.

 

 

Data Scientists et Data Engineers : qu’en est-il des débouchés ?

Les grands groupes de l’industrie et de l’économie française font état d’un cruel manque d’analystes et d’architectes faisant preuve de compétences techniques de niveau suffisant ainsi que d’une véritable connaissance du monde de l’entreprise. Une étude menée par la Mission numérique gouvernementale auprès de 81 groupes français issus du CAC 40 met en lumière le manque de professionnels qualifiés démontant de véritables connaissances métier.

 

Pour les multinationales, les compétences des Data Scientists et des Data Engineers sont cruciales pour définir une stratégie marketing, commerciale et de publicité au niveau international. La demande est donc supérieure à l’offre et les recruteurs des grands groupes de l’Hexagone soulignent leur besoin de recruter des métiers techniques dans la data : Data Engineers, mais aussi data architects ou data officiers.

 

Le procédé de l’upskilling (augmenter les compétences des informaticiens en poste afin de garantir la continuation de leur métier) n’est pas suffisant aux yeux des recruteurs, en raison des compétences hautement techniques requises par la maîtrise et l’exploitation du Big Data.

 

Les professionnels indiquent donc rechercher prioritairement des étudiants sortants des grandes écoles de l’ingénierie informatique qui ont bénéficié d’un cursus en alternance. En effet, cette modalité d’apprentissage leur garantit que le candidat dispose effectivement de compétences en lien avec le monde de l’entreprise. Son expérience professionnelle est donc vivement appréciée et est un facteur déterminant l’embauche dans les métiers de Data Scientists et Data Engineers.

 

C’est pour répondre aux besoins des professionnels et des recruteurs du secteur que l’ESGI propose ses cursus de haut niveau académique en alternance. L’établissement forme des Data Scientists et des Data Engineers qui trouvent rapidement un emploi à l’issue de leur formation.

 

 

Les Data Scientists et les Data Engineers travaillent conjointement et au sein d’équipes spécialisées dans le traitement et dans l’exploitation du Big 

Quels sont les outils pour l’Intégration Continue et le Déploiement Continu (CICD)?


Actualité publiée le 20 juillet 2022

Les outils d’intégration continue et de déploiement continu offrent aux équipes de développement d’apporter de manière plus fréquente, fiable et rapide des modifications aux codes en élaboration. Considérée comme la meilleure pratique à adopter pour ces équipes, en quoi consiste-t-elle et quels outils adopter ?

 

CI / CD : qu’est-ce que c’est ?

L’approche CI / CD est une approche révolutionnaire qui permet aux équipes de développement d’effectuer de petites modifications sur un code source et à vérifier leurs modifications fréquemment via des référentiels de contrôle de version.

 

Le besoin d’un mécanisme clair et efficace s’est fait sentir pour les équipes développement en raison de l’essor des applications modernes, qui nécessitent de développer du code sur plusieurs plateformes différentes et avec une grande variété d’outils.

 

Grâce au processus du CI / CD, les équipes peuvent effectuer les changements plus fréquemment en collaborant à partir d’outils mis en commun. Certains développeurs s’imposent à ce titre une modification par jour afin d’identifier plus aisément les erreurs et de contrôler le bon niveau qualitatif du code sur lequel ils travaillent. Les outils CI / CD permettent, entre autres, de fusionner les modifications au moment de la validation du code en élaboration. En pratique, la livraison continue prend la suite de l’étape d’intégration continue. La CD automatise la livraison de l’application mise à jour à des environnements pré-sélectionnés. L’outil CD est crucial, car les équipes de développement travaillent sur plusieurs plateformes pour déployer une seule application (environnement de production ou de test par exemple). Le principe de la livraison continue garantit alors que les changements de code provenant des diverses plateformes seront pris en compte automatiquement.

 

Les outils combinés CI / CD sont nécessaires afin de garantir l’intégration continue et la livraison continue. En effet, cette nouvelle approche du développement requiert que des tests soient effectués sans discontinuer : test de régression ou de performance par exemple.

 

 

Outil CI / CD : l’automatisation du processus d’élaboration 

Le processus build est aussi automatisé grâce aux outils CI / CD :  les développeurs peuvent choisir de les déclencher à la demande ou de les inclure dans un calendrier prédéfini. Pour construire ce calendrier, on estime la taille de l’équipe, le nombre de modifications attendues et les spécificités de l’application à développer.

 

Souvent les outils CI / CD sont utilisés dans le cadre d’un processus de gestion de projet AGILE. Cela permet aux équipes de développement de procéder à des tests à la fin de chaque sprint et de les regrouper en un seul et unique essai appelé « test de régression », qui vaut pour l’intégralité de l’application. Ce test offre aux développeurs de comprendre si c’est une modification dans le code qui n’a pas fonctionné ou s’il s’agit d’une erreur de plusieurs tests dans divers domaines fonctionnels du produit.

 

Les tests de performance sont aussi automatisés dans l’approche CI / CD, ainsi que les tests API, l’analyse de code statique ou les tests de sécurité. Ce qui importe pour garantir aux équipes de profiter au maximum des potentialités des outils CI / CD, c’est de pouvoir déclencher ces tests en ligne ou à partir d’un service web et de comprendre si le code fonctionne ou non. En effet, l’automatisation des tests est essentielle afin d’assurer l’intégration continue dans le cadre d’une pipeline CI / CD.

 

 

CI / CD : les outils de contrôle

De très nombreuses équipes de développement utilisent les outils feature flags, qui sont des indicateurs de fonctionnalités. En effet, le concept actuel de développement d’applications nouvelle génération consiste à faire travailler plusieurs développeurs de manière simultanée, mais sur des fonctionnalités diverses du produit final.

 

À l’issue des étapes d’élaboration, et en l’occurrence de l’écriture du code, il faut faire fusionner tous ces éléments qui composent le produit final dans son unicité. Grâce à cet outil, il devient possible d’activer ou de désactiver certaines fonctionnalités du projet au moment de son exécution. Il est aussi possible de procéder a contrôle de version en optant pour la méthode par branche, avec un workflow comme Git ou Gitflow. L’outil sépare sur les branches le code en cours de développement et le code validé. Parmi les feature flags  les plus appréciés, il existe CloudBees Rollout, Optimizeely Rollouts et LaunchDarky. Ces fonctionnalités peuvent s’intégrer à des outils CI / CD plus complets.

 

 

Exemples d’outils CI / CD

L’offre sur le marché ne fait que croître, en raison des potentialités et de la valeur ajoutée dont tirent les entreprises spécialisées qui adoptent l’approche CI / CD. D’excellents outils ont vu le jour, comme Jenkins, Bambou, CircleCI ou Nevercode par exemple.

 

  • Jenkins est un outil CI / CD open source et développé en Java. À chaque fois qu’un développeur modifie le code, l’outil se charge de recompiler la nouvelle ligne et de la tester. En cas d’erreur, il alerte directement le développeur à l’origine de la modification.
  • Travis CI est une excellente alternative à Jenkins. Open source, l’outil est disponible sous licence MIT. Il offre de tester des applications ou des logiciels en cours d’élaboration et d’effectuer des déploiements automatiques.
  • GitHub est la plateforme de développement de Microsoft depuis 2018. Initié par le créateur de Linux, Git organise des pull requests qui visent à faire des propositions de modifications dans un code. Une fois le changement validé, il est commuté et devient un commit, l’outil Git en reprend automatiquement toutes les possibilités. La version Git est complémentée d’une fonctionnalité appelée « Hub » et qui se réfère à la nature résolument collaborative de l’outil. Hub complète Hit en lui donnant des outils d’administration et d’organisation du travail en équipe : CI / CD mais aussi gestion de projet, notifications ou encore pilotage des codes review.

 

Grâce à l’enseignement complet et de haut niveau académique de l’ESGI, les étudiants sortants de l’établissement sont en mesure de maîtriser tous les derniers outils CI / CD. Forts de leur apprentissage en alternance, ils acquièrent une solide culture de l’entreprise, ce qui leur offre de trouver rapidement un emploi.

 

L’approche CI / CD fait ses preuves et de nombreux logiciels, plateformes collaboratives ou workplaces en intègrent les outils

Meet-Up : Agilité & DevOps


Actualité publiée le 15 juillet 2022

De nos jours, l’Agilité et le DevOps sont incontournables dans le domaine de l’informatique. Trois étudiants de l’ESGI, de la filière Ingénierie du Web, Cem BUYUK, Guillaume WELLE et Jules GABIAM ont donc décidé d’aborder ce thème lors de leur Meet-Up. Leur objectif : montrer la différence entre ces deux approches et leur importance mais aussi encourager les professionnels à s’y intéresser.

 

L’agilité est-elle une condition de succès de DevOps ?

Vincent Marqué, Responsable Architecture SI chez Total Energie, a d’abord rappelé que l’objectif n’est pas de faire de l’agilité, mais plutôt d’être agile. L’agilité à de nombreuses valeurs comme l’idée que les individus et leurs interactions primes sur le processus et les outils ou encore qu’un logiciel fonctionnel a plus de valeur qu’une lourde documentation.

 

La notion de DevOps a ensuite a été abordé, sa culture, son environnement et ses axes principaux (par exemple, la communication, la collaboration et l’intégration). L’intervenant en a profité pour aborder l’importance de « briser les silos », autrement dit, casser les barrières entre services.

 

Vincent Marqué a conclu en expliquant qu’il n’y avait pas de réel combat entre l’agilité et le devops mais qu’il s’agit d’une collaboration complémentaire et que l’agilité est une condition pour le succès de DevOps.

 

 

Agilité et DevOps : alliés ou rivaux ?

Le second talker, Mousiliw Asimiu, fondateur et CEO de MCAgile Conseil, a découpé son intervention en 5 parties :

 

  • Explication des principes et valeurs agile
  • Explication des principes valeurs devops
  • La complémentarité entre agile et devops
  • Adopter l’agilité au devops
  • Différence entre les deux approches

 

Ce cheminement lui a permis de confirmer la conclusion de Vincent Marqué, l’agilité et le DevOps sont des alliés puisqu’ils servent un même objectif, s’adaptent au changement, améliorent l’efficacité et produisent des résultats plus fiables.

 

 

Outils d’agilité et de devOps

Frantz Degrigny, coach Agile et DevOps, a animé cette troisième conférence. Il a commencé par expliquer pourquoi nous avons besoins d’outils d’agilité et de DevOps et ce pour plusieurs raisons :

 

  • Collaborer : l’objectif est de déterminer les outils nécessaires pour élaborer un cadre de travail et mettre en place des ateliers.
  • Réaliser : les outils doivent permettre identifier spécifier les outils primordiaux pour planifier/organiser ou partager/communiquer.
  • Tester : les moyens utilisés permettront de créer et d’organiser un patrimoine de cas test pour une situation bien précise. Autrement dit, une succession de tests pour un cas précis. Ils devront aussi accepter l’automatisation de tests, c’est-à-dire, permettre une succession de différents types de tests (tests de charges, de sécurité, de mutation…).
  • Livrer : le but sera de définir les outils essentiels pour packager et effectuer de l’intégration et du déploiement continu.
  • Superviser : l’objectif est de trouver les outils essentiels pour réaliser des tableaux de bord et pour maîtriser les changements.

 

Frantz Degrigny conclut en affirmant que tous ses outils sont inutiles sans collaboration.

 

 

Transformer votre organisation grâce au DevOps

Pour cette dernière conférence, Joris Loemba, Software Engineer pour Digital Factory TotalEnergie, et ancien étudiant de l’ESGI, a présenté le workflow (flux de travail en français) de son entreprise.

 

*Le but de la présentation de ce workflow est de démontrer comment est-ce que l’entreprise s’est transformée grâce au DevOps. Pour des raisons de confidentialité, nous ne pouvons pas rentrer dans les détails mais Joris conclut en expliquant qu’il est indispensable pour toute organisation d’y intégrer le DevOps.

 

 

Une expérience enrichissante

Pour les trois étudiants, organiser ce Meet-Up fut un véritable défi :

 

« Ce Meet-Up aurait pu ne pas avoir lieu, car nous avons trouvé nos intervenants une semaine à peine avant l’événement. Nous n’avons rien lâché, car il était inconcevable pour nous de le repousser ou qu’il n’ait jamais lieu.

 

Dans l’ensemble, ce meetup était très enrichissant, nous avons beaucoup appris, cela nous a donné des pistes pour notre évolution de carrière et pour les choix d’entreprises. Et a modération s’est bien passé, nous avons pu filtrer et répondre à toutes les questions posées par les participants. »

 

Guillaume WELLE, étudiant en 5ème année Ingénierie du Web

 

 

Un grand bravo aux trois étudiants qui ont animé brillamment leurs conférences et rendez-vous l’année prochaine pour de nouveaux Meet-Up !

Qu’est-ce que le « green code » ?


Actualité publiée le 12 juillet 2022

Solution innovante et très technique afin de limiter les émissions de CO2 du secteur informatique, le green code fait des émules. En effet, les TIC seraient responsables de 2 % des émissions de CO2 : le green code est-il une solution viable à la pollution numérique ?

 

Green code : le concept de la sobriété numérique mis en pratique

Dans le cadre de la volonté de nombreux professionnels de promouvoir une utilisation du numérique plus raisonnée, les développeurs ont abouti à la création du green code.

 

Le concept, c’est d’écrire du code en respectant l’environnement et en cherchant à polluer le moins possible. Pour y parvenir, on minimise l’utilisation des ressources énergétiques par le logiciel qui est exécuté. Sont donc visés les logiciels qui surconsomment les ressources énergétiques. Ces « obésiciels » (ou bloatware) utilisent trop d’énergie pour fonctionner : ce sont souvent des programmes installés par défaut sur les systèmes d’exploitation.

 

En les supprimant ou en les optimisant, devient possible de développer des logiciels en étant moins énergivore et sans impacter la performance des outils informatiques.

 

En pratique, les développeurs adoptent une double approche pour écrire du green code :

  • Ils suppriment les fonctionnalités de l’application en cours de création qui sont inutiles, et enlèvent des lignes de code.
  • Ils favorisent des nouvelles technologies moins énergivores. Par exemple, l’Internet des Objets est une technologie qui consomme énormément, notamment en raison des capteurs en veille constante. Les ingénieurs développent désormais du matériel tout aussi performant, mais qui bénéficie d’une autonomie plus longue. Couplés à un green code, ces nouveaux dispositifs consomment moins d’énergie tout en restant ultra-performants.

 

Green code : un label

Le label Green Code se développe considérablement, suite à la volonté des chefs de projet de répondre aux attentes des internautes. Ce label offre au consommateur de déterminer en un coup d’œil la qualité écologique de l’interface qu’il visite ou de l’objet technologique qu’il utilise.

 

C’est aussi un gage d’optimisation et de fluidité d’une plateforme web. Les applications inutiles et énergivores étant supprimées, les sites n’utilisent pas toutes les ressources de l’ordinateur pour fonctionner. Les internautes se détournent en effet facilement des plateformes qui « rament » et préfèrent les sites fluides et ergonomiques : le green code est alors un véritable outil d’optimisation pour ces interfaces web.

 

Ainsi, et bien que l’idée ne soit qu’encore au stade émergeant, le green code séduit les entreprises de l’industrie numérique. Si ses enjeux environnementaux sont évidents, sa valeur économique commence à être mieux comprise par les directions des entreprises et les services informatiques.

 

Les recruteurs du secteur font d’ailleurs état d’un manque important de collaborateurs formés aux techniques et aux enjeux du green code. Pour satisfaire à ce besoin, l’ESGI propose un enseignement spécialisé dans l’ingénierie informatique axé sur l’acquisition d’un savoir-faire pratique. L’objectif des formations de l’établissement est d’acquérir des compétences opérationnelles permettant aux étudiants sortants de trouver rapidement un travail dans l’économie numérique de demain. Les techniques du green code y sont donc enseignées et les étudiants sensibilisés aux enjeux écologiques de l’industrie informatique. 

 

 

Très actuel, le green code s’inscrit dans une dynamique favorable à une économie numérique performante et respectueuse de l’environnement.

Qu’est-ce que le DevSecOps?


Actualité publiée le 8 juillet 2022

Le DevSecOps est une manière de concevoir des projets en plaçant la sécurité informatique au cœur des étapes de développement, de test et de mise sur le marché. Que requiert cette nouvelle approche de la gestion de projet et comment s’y former à son tour ?

 

DevSecOps : une alternative sérieuse dans la sécurité informatique

La cybersécurité traditionnelle en réseau a montré ses limites en raison du développement de logiciels hébergés à distance des machines de travail (le fameux Cloud professionnel). La démultiplication des acteurs que requiert une cybersécurité en réseau rend d’autant plus ce système complexe et difficile à sécuriser, puisqu’il offre plus de cibles potentielles et d’espaces d’intrusion.

 

Face à ces nouvelles méthodes d’attaque et les risques inédits qu’elles représentent, les professionnels de la cybersécurité ont adopté une nouvelle approche, appelée DevSecOps. Elle consiste à considérer la cybersécurité des logiciels et de leur utilisation très les étapes préliminaires d’élaboration d’un projet.

 

Le DevSecOps pour Development Security Operations considère la sécurité des données d’un projet comme une véritable condition préalable avant de commencer sa mise en place. Ainsi, les professionnels intègrent à l’intégralité du cycle d’un projet (du développement à la mise en œuvre sur le terrain) des méthodes de cybersécurisation.

 

DevSecOps : les avantages

En adoptant cette conception du développement et de la gestion de projet, les responsables intègrent et configurent de manière autonome les tests de sécurité à chaque étape de conception. Les applications ou les logiciels sont constamment testés au regard de bugs informatiques au même titre que de failles de sécurité. Les problèmes sont ainsi détectés et résolus très en amont de la mise sur le marché d’un produit digital.

 

En mettant en œuvre des processus de cybersécurité dès le début d’un projet, le DevSecOps permet d’automatiser intégralement les tests de sécurité. Et les applique à tous les environnements : développement, démo, préproduction, etc. En automatisant la surveillance et le rapport des résultats de sécurité, les équipes sont alertées en temps réel sur les vulnérabilités du produit. Leur intervention s’inscrit alors dans des délais plus cours, ce qui correspond pour une entreprise à un gain de rentabilité considérable.

 

Quels sont les enjeux du DevSecOps ?

Adopter une conception de la gestion de projet qui donne autant d’importance à la sécurité est crucial pour une entreprise qui souhaite développer ses activités, tout en s’inscrivant dans le cadre légal et sécuritaire. Adopter cette nouvelle approche requiert de sélectionner immédiatement les outils qui permettent d’intégrer constamment des questions de sécurité. Cela requiert, en pratique, de sensibiliser les collaborateurs d’une structure à la cybersécurité et de changer culturellement les manières de concevoir les projets professionnels.

 

Développer une culture de la cybersécurité requiert du temps et se fonde sur l’utilisation de programmes et de structures logicielles solides et performants. De nombreuses entreprises chargent leur service informatique (ou des agences spécialisées) d’effectuer des opérations de sensibilisation et de formation de leur personnel à la question de la sécurité des données. Les processus DevSecOps se démocratisent et il devient crucial pour les professionnels du secteur informatique d’être capable de proposer des structures logicielles et de travailler selon un processus qui tient compte du risque sécuritaire de leurs activités.

 

L’ESGI offre à ce titre des formations de très haut niveau académique et technique qui reflètent la réalité du secteur informatique. Grâce à la modalité de l’alternance et à un contenu de cours constamment réactualisé, les étudiants sont sensibilisés aux nouvelles questions de cybersécurité. Ils apprennent à gérer et à élaborer des projets selon les processus DevSecOps dès leur première année de cursus.

 

L’approche DevSecOps se présente comme un excellent outil très concret afin de sécuriser les projets informatiques et est plébiscitée par les entreprises et les experts en ingénierie informatique.

Meet-Up : La Sécurité dans Symfony


Actualité publiée le 5 juillet 2022

Dans le cadre de l’organisation des Meet-Up de la filière Ingénierie du Web, en 5ème année, les étudiants Martin PETIT, Valentin HARAULT et Edouard GACHET ont décidé d’animer un talk sur « La Sécurité dans Symfony ».

 securite symfony

Pourquoi ce sujet ?

Dans le cadre du premier semestre, doivent organiser une conférence sur un sujet « technologique » de leur choix.

 

Après s’être tous concertés, ils ont choisi comme sujet la sécurité dans Symfony, car ils ont tout trois eu l’occasion de développer sur le Framework Symfony et se sont aperçus que la sécurité était soit négligée par beaucoup d’étudiants, soit n’était pas exploitée au maximum.

 

Ils ont donc cherché des professionnels qui pourraient partager leurs expériences et leurs connaissances sur le sujet.

 

Au fur et à mesure de leurs recherches, ils se sont heurtés à un problème de taille : la sécurité dans Symfony reste un sujet assez pointilleux et la plupart des professionnels avec qui ils prenaient contact, n’étaient pas prêt à faire une intervention sur le sujet, par « manque de connaissances sur le sujet ».

 

Après plusieurs mois, ils ont finalement réussi à trouver deux intervenants : Jérôme Tamarelle (Lead Developer chez Prisma Media et membre de la Core Team de Symfony) et Laurent Voullemier (Lead Developer chez Sensiolabs).  

 

 

Conférence 1 : Les failles de sécurité par Jérôme Tamarelle

Dans cette présentation, Jérôme a abordé les failles de sécurité dans Symfony pendant 40 minutes à travers trois parties :

 

  • Présentation de l’audit sur Symfony 2 : présentation de l’audit de sécurité effectué en 2011, juste avant la sortie de Symfony 2, qui contient toutes les failles de sécurité détectées avec les correctifs apportés.
  • Présentation du security-advisory : Jérôme a présenté le security-advisory, un blog sur symfony.com qui répertorie les failles de sécurité détectées sur Symfony avec les résolutions. Ensuite, il a parcouru quelques failles majeures et a expliqué la faille et le correctif dans les détails.
  • Comment éviter ces failles : Pour conclure, le talker a évoqué les différents moyens qui permettent d’éviter au maximum les failles de sécurité dans une application (mises à jour régulières du framework/langage, utiliser des outils d’analyses de code, bonnes pratiques, audits de sécurité…).

Conférence 2 : Le composant sécurité par Laurent Voullemier

De son côté, Laurent a présenté le composant Sécurité de Symfony pendant environ 1 heure. Il a découpé sa conférence en deux parties :

 

  • Authentication : L’authentication (en français authentification) correspond à l’identité de l’utilisateur, avec une confirmation de son identité en fournissant par exemple son nom d’utilisateur (username) ou son email et son mot de passe sur un système. Laurent a abordé, entre autres, la notion d’encoder un mot de passe ainsi que la création des custom authenticators.
  • Authorization : L’autorization (en français autorisation), correspond aux permissions attribuées à l’utilisateur. Le conférencier a présenté la hiérarchie des rôles, comment restreindre l’accès à certaines pages, ainsi que la notion de « Voter » à savoir comment créer des restrictions personnalisées.

 

 

Une expérience riche et formatrice

Pour Martin PETIT, organiser ce meetup fut une très belle expérience, pour lui comme pour les membres de son groupe et les conférenciers :

 

« Nous nous étions bien réparti les rôles ce qui nous a permis d’éviter les problèmes techniques et les passages un peu ennuyant qui peuvent exister lors des conférences à distance. De plus la conférence s’est déroulée de manière fluide car les deux conférenciers maitrisaient parfaitement le sujet et avaient déjà fait des conférences dans le passé.

 

Si nous devions refaire un meetup, j’aurais aimé un troisième intervenant afin d’organiser une « discussion » à la fin de la conférence que nous aurions pu animer et ainsi apporter un peu plus de dynamisme.

 

Pour conclure, je pense que la plupart des spectateurs ont appris beaucoup de choses sur le sujet et ne se sont pas ennuyés pendant près de deux heures. »

 

 

Un grand bravo aux trois étudiants pour cette conférence riche et intéressante, et rendez-vous l’année prochaine pour de nouveaux Meet-Up à l’ESGI !

Les outils pour bien gérer sa e-réputation


Actualité publiée le 28 juin 2022

La notoriété en ligne et l’identité numérique d’une structure professionnelle contribuent grandement au bon développement économique d’une entreprise. En quoi bien gérer sa e-réputation est un enjeu central pour la direction des sociétés et comment faire afin d’obtenir une notoriété qui favorise son développement ?

 

 

Gérer sa e-réputation : incontournable pour une entreprise

Dans le cadre de l’économie numérique mondiale d’aujourd’hui, bien gérer sa e-réputation est devenu essentiel au bon développement d’une entreprise. Une notoriété en ligne positive et dynamique apporte en effet à une structure de nouveaux prospects et renforce la confiance de ses clients en ses activités ainsi qu’en sa solidité, ce qui accroît son volume de vente.

 

L’e-réputation d’une organisation, c’est son image numérique. Elle se compose des informations en ligne qui la concernent, ses réseaux sociaux, blogs, sites et/ou partenariats (avec des Youtubeurs notamment). Cette notoriété, acquise dans l’espace Internet, comprend donc des éléments maîtrisés par l’entreprise et d’autres non.

 

Désormais, tous les consommateurs à la recherche d’une information à propos d’une entreprise se connectent sur Internet, qui est devenue la source principale pour obtenir des informations sur les structures professionnelles. C’est pour cette raison qu’il faut constamment prêter attention à son identité numérique et à sa e-réputation. Une erreur ou un manque de soin peuvent gravement entacher la notoriété d’une société et avoir des conséquences graves sur ses activités.

 

E-réputation : 3 outils pour bien la gérer

Internet fonctionne comme un bouche-à-oreille virtuel, qui répond à des codes spécifiques. Pour parvenir à instaurer et à maintenir une bonne e-réputation, les professionnels développent des stratégies construites autour de 5 grands outils.

 

  • Les moteurs de recherche. Pour qu’un prospect puisse accéder à toutes les informations d’une entreprise, présentées de manière positive et engageante, il est crucial que les plus grands moteurs de recherche positionnent en tête de page les résultats liés à la structure. En effet, 67 % des clics des internautes sont effectués sur les cinq premiers résultats de Google. Ce positionnement est devenu tellement important qu’un parle même de « pages de notoriété ».
  • Les réseaux sociaux. Ils sont à la fois un excellent indicateur de son niveau de notoriété digitale et un outil puissant pour gérer sa e-réputation. Grâce aux diverses techniques du community management, les internautes bénéficient d’une communication permanente avec leurs marques favorites. Un des outils les plus importants de la gestion de la e-réputation via les réseaux sociaux consiste d’ailleurs à instaurer des partenariats avec les influenceurs qui y postent des contenus réguliers.
  • Les sites d’avis (comme Tripadvisor ou Yelp), ou encore les plateformes, les blogs et les forums. Les discussions numériques libres à propos d’une entité ou d’une marque ont des répercussions positives importantes sur les ventes d’une structure.

 

En somme, afin de mettre en place les bons outils pour gérer sa e-réputation, il est important de ben connaître l’état de sa notoriété en ligne et les enjeux à la maintenir positivement. Grâce à ce premier état des lieux, les professionnels du web et du marketing sont en mesure de déterminer quels seront les moyens et les outils à utiliser pour renforcer ou améliorer leur e-réputation.

 

Afin d’y parvenir, les sociétés se dotent de services numériques spécialisés, composés de chefs de projet web, consultants en e-business, concepteurs de sites ou encore experts du digital. Ces professionnels ont suivi une formation spécialisée au sein d’un établissement d’enseignement supérieur, à l’instar de l’ESGI, qui offre des parcours de formation premium en alternance.

 

Aujourd’hui, bien gérer sa e-réputation est une opération centrale pour les directions des plus grandes multinationales. Une erreur sur la Toile, qui entache la notoriété d’une entreprise peut avoir des répercussions graves sur ses activités physiques.

L’ESGI invitée à l’ICCC’22 !


Actualité publiée le 23 juin 2022

L’ESGI a eu le plaisir de participer cette année à la 13ème édition de l’International Conference on Computational Creativity (ICCC’22).

L’ICCC’22 s’est tenue du 27 juin au 1er juillet 2022 à l’Université libre de Bozen-Bolzano, dans le centre-ville de Bolzano en Italie. 

 

ICCC22

La Créativité Computationnelle

La créativité computationnelle est l’art, la science, la philosophie et l’ingénierie des systèmes informatiques qui présentent des comportements que des observateurs impartiaux considéreraient comme créatifs. En tant que domaine de recherche, il est en plein essor, avec des progrès dans la formalisation de ce que signifie d’être créatifs pour les logiciels, ainsi que de nombreuses applications passionnantes et précieuses dans les sciences, les arts, la littérature, les jeux et bien d’autres.

 

Les conférences ICCC organisées par l’Association for Computational Creativity depuis 2010 sont les seules conférences scientifiques qui se concentrent uniquement sur la créativité computationnelle et en couvrent tous les aspects.

 

 

L’ESGI à l’ICCC’22

C’est dans ce cadre que l’ESGI a été invitée à participer à l’ICCC’22, représentée par Alain Lioret, Coordinateur Pédagogique de la filière Ingénierie de la 3D et des Jeux Vidéo :

 

« Le sujet de mon intervention était : Calculs Quantiques pour la Créativité Computationnelle. L’idée est ici de montrer comment ces nouvelles techniques informatiques peuvent favoriser la création avec des ordinateurs d’un nouveau genre. Au sein de l’ESGI, 3 entités ont permis de participer à cette conférence :

 

  • Le Labo ESGI Digital Lab, laboratoire de recherche de l’ESGI, qui permet aux enseignants et étudiants qui le souhaitent de publier des articles dans des conférences nationales ou internationales.
  • Le cours de Biomimétisme : Arts Sciences Nature, dont le contenu aborde les notions de créativité computationelle
  • Le Cours d’Initiation à l’Informatique Quantique, qui permet de comprendre comment fonctionne l’informatique quantique 

 

La conférence Internationale sur la Créativité Computationnelle a été un moment riche et passionnant. De nombreuses nationalités de tous les continents étaient présents et l’ESGI a eu l’honneur de représenter la France.

 

Parmi les participants, japonais, finlandais, allemands, portuguais, indiens, américains, italiens, etc. on a pu notamment assister à une extraordinaire Keynote de Aaron Hertzman, sur le sujet : « Can Computers make Art ? »

 

D’un excellent niveau, cette conférence a ainsi pu réunir les meilleurs spécialistes mondiaux du domaine. C’est avec une très grande fierté que l’ESGI Digital Lab en a fait partie. »

 

 

C’est avec un immense plaisir que l’ESGI a participé à cette conférence qui aborde des sujets d’avenirs, ambition que partage l’école, ses intervenants et ses étudiants.

200