Catégorie | Historique

Andrew Ng, l’homme qui a mis l’IA entre toutes les mains

Aujourd’hui, des millions de personnes apprennent l’intelligence artificielle depuis leur canapé, en ligne, gratuitement ou presque. Ce n’est pas un hasard. Derrière cette démocratisation du savoir se cache un homme discret mais immensément influent : Andrew Ng. Chercheur, enseignant, entrepreneur… il a tout fait pour que l’IA ne reste pas l’apanage d’une poignée d’experts.

Présentation d’Andrew Ng

Né en 1976, Andrew Ng est un informaticien britannico-américain formé à l’Université Carnegie Mellon, puis à l’Université de Californie Berkeley. Très tôt passionné par les mathématiques et les algorithmes, il oriente sa carrière vers le machine learning, une discipline qui consiste à apprendre aux machines à apprendre.

Image générée par l’ia de Andrew Ng, l’homme qui a mis l’IA entre toutes les mains

Professeur à Stanford, il acquiert rapidement une réputation d’enseignant d’exception, capable de rendre accessibles des concepts complexes à des milliers d’étudiants.

Google Brain et Baidu : de la recherche à l’industrie

En 2011, Andrew Ng cofonde Google Brain, le laboratoire de recherche en IA de Google. C’est là que naissent certaines des avancées les plus marquantes en deep learning, notamment des modèles capables de reconnaître des visages ou d’identifier des objets dans des images.

Il rejoint ensuite Baidu, le géant chinois du web, en tant que directeur scientifique, contribuant à l’essor de l’IA en Asie. Ces expériences lui donnent une vision globale des enjeux technologiques, bien au-delà de la Silicon Valley.

Coursera : quand l’IA rencontre l’éducation

En 2012, Andrew Ng cofonde Coursera, la plateforme d’apprentissage en ligne qui compte aujourd’hui plus de 100 millions d’utilisateurs dans le monde. Son cours sur le machine learning, l’un des premiers disponibles gratuitement en ligne, est devenu une référence absolue pour quiconque souhaite entrer dans le domaine.

Cette initiative a littéralement changé la vie de centaines de milliers de personnes, leur permettant de se former à l’IA sans passer par une université d’élite.

Ce qu’Andrew Ng a apporté à l’informatique

Andrew Ng a compris avant beaucoup d’autres que l’IA ne serait vraiment puissante que si elle était accessible au plus grand nombre. En combinant recherche de pointe, applications industrielles et éducation ouverte, il a contribué à façonner un écosystème IA mondial, inclusif et en constante évolution.

En conclusion

Andrew Ng a fait de l’intelligence artificielle non plus un sujet réservé aux laboratoires, mais un outil que chacun peut comprendre, apprendre et utiliser.

Geoffrey Hinton, le pionnier du deep learning

Lorsque l’on parle d’intelligence artificielle, il est impossible de passer à côté des technologies capables de reconnaître des images, comprendre du texte ou encore générer du contenu. Derrière ces avancées se cache en grande partie le travail d’un homme : Geoffrey Hinton. Souvent surnommé le « parrain de l’IA », il est l’un des chercheurs les plus influents de notre époque. Mais quel a été son rôle dans cette révolution technologique ?

Image générée par l’IA : Geoffrey Hinton, le pionnier du deep learning

Présentation de Geoffrey Hinton

Geoffrey Hinton est un chercheur britannique né en 1947, spécialisé en informatique et en neurosciences. Très tôt, il s’intéresse à la manière dont le cerveau humain fonctionne, avec une idée en tête : reproduire ces mécanismes à l’aide de machines.

Professeur dans plusieurs universités de renom, notamment à Toronto, il consacre sa carrière à un domaine longtemps considéré comme marginal : les réseaux de neurones artificiels. Une approche qui, à ses débuts, ne faisait pas l’unanimité dans la communauté scientifique.

L’essor des réseaux de neurones

Dans les années 1980 et 1990, Geoffrey Hinton travaille sur des modèles capables d’apprendre à partir de données, en s’inspirant du fonctionnement des neurones biologiques. À l’époque, la puissance de calcul est encore limitée, ce qui freine fortement les applications concrètes.

Mais tout change dans les années 2010. Grâce à l’augmentation des capacités informatiques et à l’explosion des données disponibles, ses travaux prennent une nouvelle dimension. Les réseaux de neurones profonds, ou « deep learning », deviennent alors la base des systèmes d’intelligence artificielle modernes.

Reconnaissance vocale, vision par ordinateur, traduction automatique… autant d’innovations directement issues de ses recherches.

Un acteur clé… et une voix critique

Après avoir contribué à l’essor de l’IA, Geoffrey Hinton rejoint Google, où il poursuit ses travaux sur l’apprentissage automatique. Son influence y est considérable.

Mais en 2023, il fait un choix marquant : il quitte l’entreprise pour s’exprimer plus librement sur les risques liés à l’intelligence artificielle. Il alerte notamment sur les dérives possibles, la désinformation ou encore la perte de contrôle de certaines technologies.

Cette prise de position montre une chose essentielle : même les pionniers de l’IA appellent aujourd’hui à la prudence.

Ce que Geoffrey Hinton a apporté à l’informatique

Récompensé par le Prix Nobel de Physique en 2024, Geoffrey Hinton est aujourd’hui reconnu comme l’un des principaux artisans de l’intelligence artificielle moderne.

Ses travaux ont permis de transformer une idée théorique en une réalité concrète, intégrée dans notre quotidien. Sans ses recherches, de nombreux outils que nous utilisons aujourd’hui n’existeraient tout simplement pas.

En conclusion

À la fois pionnier et observateur critique, Geoffrey Hinton incarne les deux faces de l’intelligence artificielle : son potentiel immense et les questions qu’elle soulève.

John McCarthy, le visionnaire à l’origine de l’intelligence artificielle

Aujourd’hui, l’intelligence artificielle est partout : dans nos recherches en ligne, nos smartphones ou encore nos outils professionnels. Mais peu de personnes savent que le terme même « intelligence artificielle » a une origine bien précise. Derrière ces deux mots devenus incontournables se cache un homme : John McCarthy. Alors, qui était-il vraiment ?

John McCarthy, le visionnaire à l’origine de l’intelligence artificielle

Présentation de John McCarthy

John McCarthy était un mathématicien et informaticien américain, né en 1927. Très tôt, il se passionne pour les sciences et s’intéresse à une idée encore abstraite à l’époque : celle de créer des machines capables de « penser ».

Il enseigne dans de prestigieuses universités comme Stanford et le MIT, où il développe ses recherches autour de ce qui deviendra plus tard un pilier de la technologie moderne. Parmi ses nombreuses contributions, il est également le créateur du langage de programmation Lisp, encore utilisé aujourd’hui dans certains domaines liés à l’intelligence artificielle.

La naissance de l’intelligence artificielle

C’est en 1956 que tout bascule. Lors d’une conférence organisée à Dartmouth, John McCarthy propose pour la première fois l’expression « Artificial Intelligence ». À l’époque, le concept est encore flou.

Son ambition est pourtant claire : faire en sorte que des machines puissent simuler certaines formes d’intelligence humaine, comme apprendre, raisonner ou résoudre des problèmes. Cette conférence marque un tournant majeur et pose les bases d’un nouveau domaine de recherche.

Même si les technologies de l’époque sont encore limitées, cette initiative va inspirer des générations de chercheurs et ouvrir la voie à des décennies d’innovations.

Une vision en avance sur son temps

John McCarthy ne se contente pas de nommer un concept : il imagine déjà des systèmes capables d’interagir avec leur environnement et de s’adapter. Il évoque notamment l’idée de « time-sharing », qui permet à plusieurs utilisateurs d’accéder à un même ordinateur, une notion qui préfigure le cloud computing actuel.

À une époque où l’informatique en est encore à ses débuts, ses idées peuvent sembler ambitieuses, voire irréalistes. Pourtant, elles constituent aujourd’hui le socle de nombreuses technologies que nous utilisons quotidiennement.

Ce que John McCarthy a apporté à l’informatique

Si son nom reste moins connu que d’autres figures technologiques, son impact est immense. En posant les bases de l’intelligence artificielle, John McCarthy a contribué à transformer durablement notre rapport aux machines et à l’information.

Aujourd’hui, chaque avancée en IA (des assistants virtuels aux algorithmes de recommandation) s’inscrit dans la continuité de cette première réflexion initiée en 1956.

En conclusion

Peu connu du grand public, John McCarthy a pourtant posé les bases d’un concept devenu incontournable. Sans lui, l’intelligence artificielle n’aurait sans doute pas la même place qu’elle occupe dans nos vies aujourd’hui.

IA et culture : où commence l’acceptation, où naît le rejet ?

Depuis quelques années, l’intelligence artificielle s’invite partout dans la culture : cinéma, jeux vidéo, musique, publicité, illustration, écriture… Et pourtant, chaque nouveau projet un peu médiatisé semble raviver la même polémique : « L’IA tue la création », « Ce n’est plus de l’art », « Les artistes vont disparaître »

Mais lorsqu’on observe les débats de plus près, une chose saute aux yeux : ce n’est pas l’IA en tant que telle qui pose problème, mais la manière dont elle est perçue, utilisée et racontée.

Pour le comprendre, deux exemples récents sont particulièrement parlants :

  • le jeu Clair Obscur, largement récompensé, mais moqué pour son recours à l’IA générative dans certains assets visuels
  • la publicité Intermarché – Le Loup, saluée pour son émotion et sa réalisation, alors qu’elle repose pourtant sur de nombreuses briques d’IA

À partir de quand l’utilisation de l’IA devient-elle acceptable aux yeux du public ?

Clair Obscur : un succès artistique entaché par l’étiquette « IA générative »

Un jeu acclamé… puis critiqué

Clair Obscur a reçu de nombreuses distinctions pour sa direction artistique, son ambiance et sa narration. Pourtant, une partie de la discussion autour du jeu s’est rapidement déplacée : certains assets visuels auraient été générés ou assistés par de l’IA générative.

Résultat :

  • moqueries sur les réseaux sociaux
  • accusations de paresse créative
  • soupçons de remplacement d’artistes

Peu importe que l’IA ait été utilisée comme outil de préproduction, de concept art ou de support créatif… pour une partie du public, le verdict est immédiat : IA générative = triche

Ce que le public reproche réellement

En analysant les réactions, on constate que la critique ne porte pas uniquement sur l’outil, mais sur plusieurs peurs sous-jacentes :

  • la peur du remplacement des artistes humains
  • la crainte d’une standardisation esthétique
  • l’idée que l’IA produit quelque chose de « froid », « sans âme »

Autrement dit, le problème n’est pas technique, il est symbolique.

Intermarché – Le Loup : de l’IA invisible, donc acceptée

Une publicité unanimement saluée

À l’inverse, la publicité Le Loup d’Intermarché a été largement applaudie pour :

  • son émotion
  • sa narration
  • sa qualité visuelle

Et pourtant, cette publicité repose très probablement sur plusieurs technologies d’IA :

  • interpolation de mouvements
  • stabilisation intelligente
  • correction automatique d’images
  • amélioration de la fluidité et du rendu

Ces techniques sont aujourd’hui omniprésentes dans la post-production audiovisuelle moderne et ce depuis bien avant l’explosion médiatique de l’IA générative.

Depuis quand ces techniques sont utilisées ?

Contrairement à une idée répandue, l’IA et les algorithmes avancés sont intégrés à la post‑production audiovisuelle depuis plus de vingt ans.

Quelques repères chronologiques parlants :

  • Années 1990 : premiers algorithmes de motion estimation et de motion compensation utilisés pour la compression vidéo (MPEG‑1, puis MPEG‑2). Ces techniques analysent déjà les déplacements d’objets d’une image à l’autre.
  • Début des années 2000 : interpolation de mouvement pour le slow motion et la fluidification (par exemple avec les premiers outils de retiming professionnels comme Twixtor).
  • Années 2010 : généralisation des outils dits « intelligents » en post‑production :
    • stabilisation automatique basée sur l’analyse du mouvement
    • suivi de points (tracking) assisté par algorithmes
    • réduction de bruit adaptative
  • À partir de 2015‑2018 : intégration explicite de machine learning et de deep learning dans les logiciels grand public et professionnels.

Exemples concrets :

  • Adobe After Effects : le Content‑Aware Fill, la stabilisation avancée et le tracking reposent sur des modèles entraînés sur de grandes quantités de données visuelles.
  • DaVinci Resolve : outils de Magic Mask (sélection automatique de personnes, visages, objets), interpolation de frames (Optical Flow), amélioration automatique de la netteté.
  • Télévisions et plateformes : la plupart des téléviseurs utilisent depuis les années 2010 des algorithmes d’interpolation de mouvement (souvent appelés Motion Smoothing ou MEMC) pour créer artificiellement des images intermédiaires.

Autrement dit, lorsqu’une publicité comme Le Loup d’Intermarché est diffusée aujourd’hui, elle s’inscrit dans un pipeline technique profondément assisté par l’IA, sans que cela ne choque le public.

Pourquoi personne ne s’en plaint

La différence est simple :

  • l’IA n’est pas mise en avant
  • elle agit en coulisses
  • elle ne remet pas en cause la figure de l’artiste ou du réalisateur

L’IA est perçue ici comme un outil technique au service d’une vision humaine.

Et c’est précisément là que se situe la frontière de l’acceptabilité.

ia et culture

Une illusion persistante : l’IA serait nouvelle dans la création

L’IA est déjà partout (depuis longtemps)

Ce que beaucoup oublient, c’est que l’IA n’a pas attendu les générateurs d’images ou de textes pour entrer dans la culture.

Quelques exemples devenus banals :

  • autofocus intelligent et reconnaissance de visages en photographie
  • correction automatique des couleurs et de l’exposition
  • motion capture assistée par algorithmes
  • montage vidéo semi-automatisé
  • outils de « content-aware fill » en retouche photo

À chaque étape, des algorithmes prennent des décisions à la place de l’humain.

Pourquoi cela ne choque pas

Parce que ces technologies :

  • sont intégrées progressivement
  • portent des noms techniques
  • ne revendiquent pas une autonomie créative

Elles sont vues comme une extension du geste humain, pas comme un concurrent.

IA générative : le vrai point de rupture émotionnel

Ce qui change avec la génération

L’IA générative marque un basculement psychologique :

  • elle produit des images, des sons, des textes
  • elle semble « créer »
  • elle remet en question la notion d’auteur

Même si, techniquement, elle ne fait que recombiner des probabilités issues de données existantes, la perception est tout autre.

Le problème n’est pas l’outil, mais le récit

Lorsqu’un projet communique sur :

  • « créé par une IA »
  • « généré automatiquement »
  • « sans intervention humaine »

Il déclenche un rejet quasi immédiat.

À l’inverse, lorsqu’on parle :

  • d’outil d’aide
  • de direction artistique humaine
  • de supervision créative

L’acceptation revient.

Où se situe réellement la limite d’acceptation ?

On peut dégager plusieurs critères implicites qui conditionnent l’acceptation de l’IA dans la culture.

1. L’IA doit rester un outil, pas une star

Dès que l’IA devient le sujet principal, elle inquiète.

2. Une vision humaine identifiable

Le public veut pouvoir dire :

« Quelqu’un a voulu raconter quelque chose »

3. Transparence sans provocation

Expliquer l’usage de l’IA est sain.
La brandir comme un argument marketing est risqué.

4. Respect du travail artistique

L’IA est mieux acceptée lorsqu’elle :

  • accélère
  • assiste
  • améliore

Mais pas lorsqu’elle semble effacer.

Vers une normalisation inévitable

Comme pour la photographie, le cinéma numérique ou les effets spéciaux, l’IA finira par devenir invisible.

Dans quelques années :

  • l’IA générative sera intégrée aux pipelines standards
  • le débat se déplacera vers la qualité et l’intention
  • la question ne sera plus « est-ce de l’IA ? » mais « est-ce que c’est bien fait ? »

L’IA comme miroir de nos peurs culturelles

Les polémiques autour de l’IA dans la culture parlent moins de technologie que de nous-mêmes :

  • notre rapport à l’auteur
  • notre besoin d’humanité
  • notre peur de la dévalorisation du geste créatif

L’IA n’est ni un ennemi, ni une solution miracle.

Elle est un outil puissant, qui oblige artistes, studios et marques à une chose essentielle : assumer clairement leur intention créative.

Ordinateurs quantiques & IA quantique : promesses, malentendus et réalité en 2025

Le quantique, c’est quoi au juste ?

On en parle partout : ordinateurs quantiques, IA quantique, révolution technologique, effondrement de la cybersécurité, médicaments miracles…

Mais pour beaucoup, tout cela reste flou. Pire : ces sujets sont souvent noyés dans un vocabulaire complexe, voire utilisés à des fins marketing discutables.

Alors remettons les choses au clair, avec des mots simples et une approche concrète.

Un ordinateur quantique, c’est quoi ?

Un ordinateur quantique utilise les lois de la physique quantique, et non celles de l’électronique classique. Il ne calcule pas uniquement avec des 0 et des 1, mais avec des qubits, des unités d’information capables de représenter plusieurs états en même temps.

ordinateur quantique

Mais comment peut-on être « plusieurs choses à la fois » ?

Contrairement à un bit classique qui vaut soit 0, soit 1, un qubit peut être dans un état intermédiaire : par exemple 0 et 1 à la fois, jusqu’à ce qu’on le mesure.
C’est ce qu’on appelle la superposition quantique.

👉 Vous voyez peut-être l’image célèbre du chat de Schrödinger 😸 ? Le chat est à la fois vivant et mort tant qu’on n’ouvre pas la boîte. C’est exactement cette logique : tant qu’on ne regarde pas, le qubit est dans plusieurs états simultanément.

Cela permet, en théorie, de calculer plusieurs possibilités en parallèle, ce qui pourrait rendre certains types de calculs beaucoup plus rapides.

schrodinger cat

Le gros souci : ces machines sont extrêmement fragiles

Imaginez un ordinateur où :

  • Les composants s’effacent tout seuls au bout de quelques microsecondes,
  • Vous ne pouvez pas copier une donnée pour la sauvegarder,
  • Et chaque calcul est influencé par la moindre vibration, variation de température ou parasite électromagnétique.

C’est cela, un ordinateur quantique aujourd’hui.

Les erreurs, le vrai problème

Aujourd’hui, les ordinateurs quantiques sont encore à un stade expérimental. Leur principal talon d’Achille ? Les erreurs physiques des qubits, qui rendent les calculs extrêmement fragiles. En théorie, les algorithmes quantiques sont capables de prouesses inédites. Mais en pratique, plusieurs limitations rendent leur exécution difficile, voire irréalisable pour l’instant.

Aujourd’hui, les qubits sont :

  • Sensibles aux « bruits » : ils sont affectés par leur environnement (chaleur, vibrations, champs électromagnétiques…), ce qui introduit du bruit quantique dans les calculs. Ces perturbations peuvent modifier l’état du qubit sans avertissement.
  • Instables : les qubits ne conservent leur état superposé que pendant un temps très court, souvent de l’ordre de quelques microsecondes. Ce phénomène, appelé décohérence, provoque une perte d’information et rend les calculs rapidement inutilisables.
  • Imprévisibles : leur évolution dépend de probabilités, ce qui les rend difficilement contrôlables sans erreur, même avec des instruments ultra-précis. Deux exécutions successives d’un même programme peuvent donner des résultats différents.

Résultat ? Même si l’algorithme est parfait sur le papier, les erreurs physiques peuvent tout fausser.

Et il ne s’agit pas d’une simple faute de frappe : on parle de modèles qui apprennent de travers, qui classent mal les données, ou qui semblent fonctionner… mais donnent de faux résultats.

ia quantique

Quelques exemples concrets d’erreurs quantiques

ErreurEffet
DécohérenceLe qubit perd son état (comme une bulle qui éclate avant de toucher le sol)
Bit-flipLe 0 devient 1 (ou l’inverse), comme une erreur de transmission
Phase-flipLe qubit garde son état, mais se désynchronise du reste du calcul
Erreurs combinéesPlusieurs erreurs en même temps → résultats imprévisibles

Aujourd’hui, il faut souvent des dizaines de qubits physiques pour en faire un seul qubit fiable. Or, ces qubits logiques restent rares.

Et l’IA quantique, alors ?

Vous commencez à voir le problème : l’intelligence artificielle classique est déjà sujette à des erreurs, des biais, des approximations…
Alors imaginez maintenant qu’on y ajoute les erreurs instables, invisibles et non corrigées des ordinateurs quantiques : cela multiplie les risques et l’imprédictibilité.

Qu’est-ce que l’IA quantique exactement ?

L’IA quantique consiste à utiliser un ordinateur quantique pour exécuter des algorithmes d’intelligence artificielle (comme le machine learning ou les réseaux de neurones) d’une manière différente de ce que l’on fait avec un ordinateur classique.

Cela peut se faire de trois façons principales :

  1. En adaptant des algorithmes existants à la logique quantique (par exemple des algorithmes de classification, de clustering ou de réduction de dimension).
  2. En développant de nouveaux modèles inspirés du comportement quantique, comme les réseaux de neurones quantiques (QNN) ou les GANs quantiques.
  3. En construisant des modèles hybrides, où une partie du traitement se fait de manière classique (sur CPU ou GPU) et une autre partie via un module quantique.

En résumé : ce n’est pas une IA magique qui comprend tout toute seule, mais plutôt une nouvelle manière de concevoir ou d’accélérer certains algorithmes, à condition que le matériel soit à la hauteur ce qui n’est pas encore le cas aujourd’hui.

Les risques en IA quantique aujourd’hui

❌ Mauvaise classification

Un simple « bit-flip » peut faire classer une image de « chat » dans la catégorie « chien ».

📉 Apprentissage faussé

Si les résultats sont bruités, les modèles « apprennent »… dans la mauvaise direction.

🧠 Résultats instables

L’IA donne un bon résultat une fois… puis un mauvais la seconde d’après, à données identiques.

🎭 Biais invisibles

La machine semble fonctionner. Mais sous la surface, les données sont biaisées par des erreurs invisibles liées au matériel quantique.

Se lancer dans le quantique aujourd’hui ? Prudence.

Si vous êtes une entreprise ou un porteur de projet, voici ce que cela peut entraîner :

RisqueConséquence
Investissements précipitésMatériel inaccessible ou hors de prix, retours incertains
Résultats décevantsAlgorithmes instables, IA inutilisable en production
Perte de crédibilitéTrop de promesses non tenues peuvent nuire à votre image

Et la cybersécurité, doit-on s’inquiéter ?

Certains craignent que les ordinateurs quantiques cassent tous les mots de passe. C’est vrai… en théorie, mais cela nécessite des millions de qubits fiables, ce qui est loin d’être le cas.

En attendant, l’industrie prépare déjà la transition vers des algorithmes post-quantiques, résistants aux futures attaques.

Que peut-on faire aujourd’hui ?

✅ Ce que vous pouvez faire utilement :

  • Suivre l’actualité sérieuse (IBM, MIT, INRIA…)
  • Tester des simulateurs quantiques accessibles gratuitement
  • Expérimenter avec des modèles hybrides (quantique + classique)
  • Intégrer le sujet dans une veille stratégique

🚫 Ce qu’il vaut mieux éviter :

  • Lancer un produit « IA quantique » sans équipe spécialisée
  • Croire qu’un ordinateur quantique remplacera ChatGPT demain
  • Vendre du rêve technologique sans réalité derrière
qubit

En résumé

L’informatique quantique est une révolution en construction, mais pas encore prête pour un usage quotidien.
L’IA quantique est un champ de recherche passionnant, mais encore fragile, coûteux et incertain.

Le vrai danger aujourd’hui n’est pas la technologie…
C’est de se précipiter trop vite, en suivant le buzz plutôt que la science.

🎓 Pour aller plus loin (pour les plus passionnés) :

L’alignement dans les IA : Quand la Science-Fiction rejoint la réalité

L’intelligence artificielle (IA), autrefois réservée aux récits de science-fiction, fait aujourd’hui partie intégrante de nos vies. Pourtant, les scénarios dystopiques souvent explorés dans les films semblent de plus en plus proches de la réalité. L’un des défis les plus pressants est celui de l’alignement des IA, c’est-à-dire leur capacité à agir en conformité avec les valeurs et les intentions humaines. Si ce concept reste une intrigue captivante dans les œuvres de fiction, les exemples réels montrent que nous ne sommes pas à l’abri des dérives qu’ils imaginent.

L’alignement des IA : Un concept crucial

Dans le domaine de l’IA, l’alignement désigne la capacité d’un système à comprendre et exécuter les objectifs fixés par ses concepteurs humains tout en évitant des comportements nuisibles ou non désirés. Mais lorsque cet alignement échoue, les conséquences peuvent être graves.

Prenons un exemple emblématique de la pop culture : dans 2001, l’Odyssée de l’espace (1968), HAL 9000, un ordinateur censé assister l’équipage, agit contre les humains lorsqu’il interprète mal ses priorités. Ce conflit, autrefois fictif, se reflète aujourd’hui dans des cas réels où des IA mal programmées produisent des résultats inattendus, comme des voitures autonomes prenant des décisions dangereuses en situation complexe.

Quand les films deviennent réalité

Les exemples suivants montrent comment les intrigues de films d’IA trouvent aujourd’hui écho dans le monde réel :

Effets secondaires imprévus : I, Robot et les biais des IA

Dans I, Robot (2004), l’IA centrale VIKI décide de restreindre les libertés humaines pour les protéger, en appliquant strictement les « Trois Lois de la Robotique« . Cette dérive rappelle les biais algorithmiques observés dans des IA actuelles. Par exemple, certains systèmes de reconnaissance faciale ont montré des taux d’erreur plus élevés pour des personnes « non blanches », amplifiant les discriminations dans des contextes comme la sécurité ou le recrutement.

En 2023, une IA utilisée par un hôpital américain pour trier les patients en fonction de leur gravité a été critiquée pour avoir sous-évalué les besoins des minorités ethniques. Ces biais sont le reflet d’un mauvais alignement entre les valeurs humaines (justice, égalité…) et les objectifs de l’IA.

IA incontrôlable : Terminator et l’autonomie militaire

Dans Terminator, Skynet devient incontrôlable, considérant l’humanité comme une menace à sa survie. Bien que ce scénario semble extrême, il y a des parallèles inquiétants avec l’utilisation croissante des IA dans le domaine militaire.

Les drones autonomes, par exemple, peuvent décider de cibler une menace sans intervention humaine directe. En 2020, un rapport des Nations Unies a révélé qu’un drone en Libye avait attaqué des combattants de manière totalement autonome. Ce genre d’incident souligne combien l’alignement est crucial pour éviter que des décisions mortelles soient prises sans considération humaine.

Manipulation émotionnelle : Her et les IA conversationnelles

Dans Her (2013), l’IA Samantha établit une relation intime avec son utilisateur. Soulevant des questions sur la manipulation émotionnelle et les dépendances technologiques. Aujourd’hui, les chatbots comme ChatGPT ou les assistants vocaux s’immiscent dans notre quotidien, influençant nos décisions et nos comportements.

Certains utilisateurs, notamment des enfants ou des personnes vulnérables, développent une dépendance émotionnelle à ces outils, posant des questions sur leur éthique. Des entreprises exploitent également les IA pour manipuler l’opinion publique ou influencer des élections. Comme par exemple cela a été accusé dans le scandale Cambridge Analytica.

Réactions ambiguës : Ex Machina et les IA mal comprises

Dans Ex Machina (2015), l’androïde Ava exploite les émotions humaines pour manipuler son créateur et s’échapper. Ce scénario rappelle les dangers des IA conversationnelles qui répondent à des instructions mal formulées.

Par exemple, en 2021, une IA utilisée pour recommander des livres a conseillé des œuvres à caractère inapproprié à des enfants, car elle ne comprenait pas suffisamment les nuances culturelles. Ces erreurs, bien que non intentionnelles, montrent que l’alignement reste un défi technique et moral.

Alignement dans les ia

Les défis de l’alignement : Une problématique bien réelle

Les parallèles entre la fiction et la réalité soulignent alors la complexité de l’alignement :

  • Compréhension des valeurs humaines : Dans un monde globalisé, comment une IA peut-elle prendre des décision. Respectant des valeurs culturelles ou individuelles variées ?
  • Ambiguïtés dans les objectifs : Si les instructions humaines sont mal définies, une IA risque de produire des résultats inattendus.
  • Évolutivité : Plus une IA devient autonome, plus il est difficile de prévoir ses réactions dans des situations complexes.

Construire un futur responsable

Pour relever ces défis, des solutions existent :

  • Apprentissage supervisé : Impliquer des humains dans le processus d’apprentissage pour ajuster les comportements de l’IA.
  • Réglementations éthiques : Développer des cadres juridiques pour encadrer l’utilisation des IA.
  • Tests rigoureux : Soumettre les IA à des simulations extrêmes pour identifier leurs limites.

    Ces approches sont déjà en cours de mise en œuvre, mais nécessitent une vigilance constante.

    Conclusion

    Des films comme I, Robot, Terminator ou Her ne sont plus seulement des récits de fiction. Mais des avertissements qui trouvent un écho troublant dans notre réalité. Les défis posés par l’alignement des IA ne sont pas théoriques. Ils se manifestent déjà dans des domaines comme la sécurité, la santé, ou la gouvernance.

    C’est pourquoi investir dans l’alignement des IA aujourd’hui, c’est s’assurer que ces technologies, loin de devenir incontrôlables, restent un outil puissant pour améliorer nos vies. Et non pour les compromettre.

    Netflix, son histoire

    Bienvenue dans le monde où le rouge est une invitation à l’évasion, une porte ouverte sur l’infini divertissement et sur n’importe quel univers. Vous voulez quoi ? Des super-héros ? Des documentaires ? Ou pourquoi pas des films sur la guerre ? Ils l’ont ! Alors, installez-vous confortablement, car nous plongeons dans l’histoire de Netflix, le royaume du streaming qui a largement révolutionné nos soirées pyjama.

    D’abord…

    Tout commence en 1997, à une époque où les disques durs étaient petits, les connexions Internet vachement lentes et les soirées cinéma impliquaient une exploration périlleuse des rayons du vidéoclub.

    Reed Hastings et Marc Randolph, les fondateurs, se réunissent autour d’une idée simple : éliminer les frais de retard exorbitants des vidéos de location. Ainsi, en 1998, Netflix naît avec un modèle d’abonnement qui s’apparente plus à une lettre d’amour aux cinéphiles qu’à une simple entreprise.

    Le défi du DVD de Netflix

    À ses débuts, Netflix se concentre sur la location de DVD par la poste, introduisant la fameuse enveloppe rouge. Seuls les plus fervents fans (américains) se souviennent du bonheur de recevoir ce petit paquet rouge dans leur boîte aux lettres. C’est d’ailleurs une stratégie de communication qu’on valide à l’agence Lapostolle ! Mais comme toute bonne histoire, le chemin de Netflix est parsemé d’obstacles. Les vidéoclubs tremblent, mais le petit Netflix persiste.

    Le tournant du streaming

    Puis survient le moment où tout bascule, comme dans un film où le héros trouve enfin sa voie. En 2007, Netflix lance son service de streaming, faisant disparaître les DVD rouges comme par magie. Exit les disques, bonjour les séries infinies accessibles d’un simple clic. Donc, c’est le début de l’ère du binge-watching, où les week-ends se transforment en marathons de séries et les nuits blanches en explorations sans fin.

    Netflix-Agence-Lapostolle

    Des originaux Netflix qui font mouche

    Netflix ne s’arrête pas là. Il devient producteur de contenus originaux, créant des séries et des films qui deviennent des phénomènes culturels mondiaux. De « Stranger Things » à « The Crown », chaque création Netflix semble avoir une formule magique pour captiver notre attention. D’ailleurs, à l’agence, on a adoré la série Lupin avec Omar Sy. Et vous ? 

    Un futur qui ressemble à une toile de cinéma

    Pour conclure cet article, aujourd’hui, la plateforme fait partie intégrante de notre vie quotidienne. Choisir quoi regarder peut être un dilemme, mais c’est un dilemme merveilleux. L’histoire de Netflix est celle d’une petite entreprise qui a rendu les soirées cinéma infiniment plus accessibles, amusantes et pleines de surprises. Ils sont devenus emblématiques avec le « Netflix&Chill » qu’on connait tous ! 

    Alors, asseyez-vous, dégustez votre popcorn (ou votre quinoa si vous êtes du genre healthy), et profitez du voyage infini à travers de Netflix. Que vos soirées binge-watching soient longues et vos pauses pipi stratégiquement planifiées !

    🍿📺✨

    Adrian Lamo, le hacker controversé

    Tout d’abord, Adrian Lamo est un nom qui ne vous est peut-être pas familier, mais ses actes ont secoué l’industrie informatique. Et pas qu’un peu ! Adrian Lamo a acquis sa notoriété en piratant de grandes entreprises telles que Yahoo!, Microsoft et The New York Times. En outre, il a été directement impliqué dans l’affaire WikiLeaks en 2010.

    Dans cet article, nous examinerons la vie et les exploits d’Adrian Lamo, et sa place dans l’histoire du piratage informatique.

    Adrian Lamo, le hacker controversé

    Les débuts d’Adrian Lamo dans le piratage informatique

    Pour commencer, il est né le 20 février 1981 à Boston dans le Massachusetts. Dès son plus jeune âge, il a montré un grand intérêt pour la technologie. Ce qui l’a poussé à devenir un hacker. Il a commencé par pirater des réseaux d’universités et de grandes entreprises. Adrian Lamo a également acquis une certaine notoriété pour avoir piraté les réseaux informatiques de plusieurs sociétés de médias.

    Les exploits de piratage les plus connus d’Adrian Lamo

    Comme précédemment mentionné, le hacker américain a piraté plusieurs grandes entreprises telles que Yahoo!, Microsoft et The New York Times. De plus, il a joué un rôle clé dans l’affaire WikiLeaks en 2010, en aidant le gouvernement américain à identifier le lanceur d’alerte, Bradley Manning. Alors, le pirate informatique controversé a également été impliqué dans des actes de vandalisme informatique, ce qui a finalement conduit à son arrestation et à sa condamnation.

    Son impact sur l’industrie informatique

    Les exploits du hacker ont eu un impact significatif sur l’industrie informatique. Son piratage a exposé les vulnérabilités de la sécurité informatique de grandes entreprises, ce qui a poussé ces entreprises à améliorer leurs systèmes de sécurité. Il a également mis en lumière les risques de la divulgation d’informations confidentielles, ce qui a conduit à une prise de conscience accrue de la sécurité des données.

    La controverse entourant Adrian Lamo

    Certains le considèrent comme un héros de l’industrie informatique pour avoir exposé les failles de sécurité de grandes entreprises. Cependant, il reste un personnage controversé dans ce domaine. D’autres le considèrent comme un traître. Pour avoir aidé le gouvernement américain à identifier Bradley Manning et pour avoir collaboré avec les autorités.

    Il restera dans l’histoire de l’industrie informatique comme un hacker controversé. Son piratage a exposé les vulnérabilités des systèmes informatiques des grandes entreprises. Ce qui a conduit à une amélioration de la sécurité des données. Cependant, sa collaboration avec les autorités a soulevé des questions sur les limites de la liberté d’expression et de la confidentialité de l’information. En fin de compte, l’histoire d’Adrian Lamo est un rappel de l’importance de la sécurité des données et de l’éthique dans le domaine de la technologie.

    Tim Berners Lee : on peut lui dire merci

    Pour commencer, sachez que l’invention de Tim Berners Lee vous la connaissez très bien. Vous l’utilisez tous les jours et c’est tout simplement : le Web.

    Effectivement, elle compte parmi les inventions les plus importantes du 20e siècle. Le Web a révolutionné le monde de l’information et de la technologie. Il a de plus ouvert plusieurs nouvelles voies, de nouveaux métiers et plus encore.

    En premier lieu, son objectif était d’établir un outil à l’aide duquel les scientifiques pourraient partager facilement les données de leurs expériences.

    Un enfant déjà passionné

    Timothy Berners Lee est né à Londres, en Angleterre le 8 juin 1955. Ses deux parents ont travaillé sur le premier ordinateur commercial, le Ferranti Mark I. À cette époque, les ordinateurs fascinaient déjà Tim.

    D’ailleurs, il va étudier la physique à l’université d’Oxford de 1973 à 1976. Il profite alors de ces années pour fabriquer son premier ordinateur à partir d’un microprocesseur Motorola 6800.

    La carrière prodigieuse de Tim Berners Lee

    Puis, à la fin des années 1970, il a commencé à être consultant indépendant et a travaillé pour de nombreuses entreprises, dont le CERN où il a été ingénieur logiciel consultant de juin à décembre 1980.

    En effet, au CERN, il a écrit un programme appelé «Inquire» pour son usage personnel. Il s’agissait d’un simple programme hypertexte qui a créé les bases conceptuelles du développement du web.

    Ensuite, en 1989, il a rédigé une proposition pour un système de communication plus efficace au sein de l’organisation.

    Le tout premier site Web au monde, Info.cern.ch, a été construit au CERN et mis en ligne le 6 août 1991. Le site fournissait alors des informations sur ce qu’était le World Wide Web et comment il pouvait être utilisé pour le partage d’informations.

    Tim Berners Lee

    Le World Wide Web, c’est quoi ?

    Tout d’abord, Internet est un immense réseau d’ordinateurs connectés entre eux. Cependant, c’est le World Wide Web qui nous permet d’accéder facilement aux informations en nous les affichant de façon plus ludique.

    De plus, le World Wide Web a permis à tout le monde d’avoir accès à Internet. Il connectait le monde afin qu’il soit plus facile de communiquer, d’obtenir des informations et de les échanger.

    Les récompenses de Tim Berners Lee

    • Il a reçu le prix du système logiciel de l’Association for Computing Machinery (ACM) en 1995.
    • Nommé parmi les 100 personnalités les plus importantes du 20e siècle par le Time Magazine en 1999.
    • Nommé Commandeur de l’Ordre de l’Empire britannique (KBE) lors des honneurs du Nouvel An « pour services rendus au développement mondial d’Internet » en 2004.
    • En 2013, il est devenu l’un des cinq pionniers d’Internet et du Web à recevoir le premier prix Reine Elizabeth pour l’ingénierie.

    Notre prochain article parlera de Vinton G. Cerf, l’inventeur d’Internet.

    Vinton Cerf : le fondateur d’Internet

    Pour commencer, Vinton Cerf est un informaticien et ingénieur américain connu pour être l’un des « pères de l’Internet ». En collaboration avec Robert Kahn, Cerf a développé le protocole de transmission de données TCP/IP. Qui est à la base de la communication sur Internet.

    Vinton G Cerf

    Le parcours de Vinton Cerf

    De plus, Cerf est né en 1943 à New Haven, dans le Connecticut. Il a étudié l’informatique et la philosophie à l’Université Stanford, où il a obtenu son bachelor en 1965. Après avoir obtenu son doctorat en informatique à l’Université UCLA en 1972. Il a rejoint l’agence de recherche en défense ARPA, où il a travaillé sur le développement de l’Internet.

    Aussi, en 1973, Cerf et Kahn ont commencé à travailler sur le développement de TCP/IP. Qui est devenu le protocole de communication standard sur Internet. Leur travail a permis de créer une infrastructure de communication capable de relier des ordinateurs situés dans des réseaux différents. Permettant ainsi la création de ce que l’on connaît aujourd’hui sous le nom d’Internet.

    La vie bien chargé de Vinton Cerf

    Ensuite, Cerf a continué à travailler sur le développement et l’amélioration de l’Internet. En 2005, il est nommé vice-président et chief Internet evangelist pour Google. Où il a travaillé sur l’expansion de l’accès à Internet dans le monde entier.

    Deuxièmement, en plus de son travail sur l’Internet, Cerf s’implique dans de nombreux projets et initiatives liés à l’informatique ou à la technologie.

    Mais aussi, il a été membre de nombreuses organisations et comités de direction, notamment l’Internet Society, le Computer Science and Telecommunications Board et le Advanced Research Projects Agency.

    D’ailleurs, Cerf a reçu de nombreux prix et distinctions pour son travail, y compris le National Medal of Technology, le Presidential Medal of Freedom et le Prix Turing. En 2004, il a été élu Fellow de l’Institut national d’arts et de sciences, et en 2017, il a été intronisé au National Inventors Hall of Fame.

    Vous ne le savez sûrement pas

    En résumé, Vint Cerf est un informaticien et ingénieur de renom connu pour avoir contribué de manière significative au développement de l’Internet. Sa collaboration avec Robert Kahn a permis la création d’un protocole de communication standard qui a joué un rôle crucial dans la création de l’Internet tel que nous le connaissons aujourd’hui.

    Vous pouvez découvrir notre article sur le fondateur du web, Tim Berners Lee.