Le classique du cinéma 2001 : L'Odyssée de l'espace fait son retour en salles dans une version restaurée. HAL 9000, son ordinateur emblématique capable de parler, voir, planifier et percevoir les émotions, fascine toujours. À quel point sommes-nous proches d'un tel HAL aujourd'hui ?
Plongeons dans l'une des scènes les plus glaçantes du film. Le vaisseau Discovery One est en mission secrète, connue uniquement de HAL, décrit par Arthur C. Clarke comme "le cerveau et le système nerveux du navire". Les astronautes Dave et Frank se confient dans une nacelle, éteignant les appareils pour éviter d'être entendus. Du point de vue de HAL, nous les voyons discuter : il lit sur les lèvres. Pour protéger la mission, HAL décide d'éliminer l'équipage. Clarke révélait en 1999 au New York Times que cette idée venait de Stanley Kubrick, qui considérait la lecture labiale comme l'élément "techniquement improbable" du film.
Fin 2016, des chercheurs de l'Université d'Oxford, en partenariat avec DeepMind (Google), ont créé LipNet, un système d'IA surpassant les humains en lecture labiale. Entraîné sur plus de 5 000 heures d'émissions BBC via des réseaux de neurones profonds, LipNet atteint 46,8 % de précision sur des phrases complètes, contre 12,4 % pour un expert humain. Contrairement aux essais antérieurs limités à des mots simples, LipNet gère des angles variés, comme les 90° de profil dans le film – un choix cinématographique de Kubrick.

Cette scène souligne que HAL comprend le langage. Comme l'écrivait Clarke : "Toute technologie suffisamment avancée est indiscernable de la magie." Les assistants comme Siri, Google Assistant, Alexa ou Cortana en sont les héritiers. Au CES 2017, la reconnaissance vocale était la star, avec des investissements massifs d'Apple, Google, Microsoft, Amazon et Baidu. Des experts comme Andrew Ng (ex-Baidu) ou Adam Cheyer (créateur de Siri, issu du projet CALO du Pentagone) y contribuent. Wired qualifiait déjà HAL de "proto-Siri".
Google annonçait 95 % de précision sur l'anglais en 2016, rivalisant avec l'humain. Mais comprendre ? Le Pr David van Leeuwen (Université Radboud) distingue reconnaissance (transcription) et compréhension (action pertinente). "Siri excelle à donner cette illusion", note-t-il. La perception subjective joue : nos attentes évoluent avec les IA.

Un vrai dialogue exige empathie. Jarvis de Zuckerberg (2016) gère des tâches domestiques avec une voix de Morgan Freeman. Les synthèses vocales progressent via deep learning (WaveNet de DeepMind, Deep Voice de Baidu), imitant rythme et intonation. Apple affine Siri pour plus de naturel. La voix de HAL, par Douglas Rain, trahit une compréhension émotionnelle subtile : excuses anticipées, défi poli.
Ces échanges requièrent un vaste contexte pour gérer ambiguïtés. Même Watson d'IBM peinait sur Jeopardy! par calcul probabiliste, non par compréhension humaine.
Les progrès en deep learning accélèrent tout. AlphaGo illustre la puissance des "boîtes noires" opaques, inquiétant Hawking ou Steve Chien (NASA). Pour Mars (2030), avec 40 min de délai radio, un HAL surveillerait systèmes vitaux. Ellen Stofan (ex-NASA) plaidait : "Nous avons besoin d'un bon HAL."
Clarke imaginait des suites jusqu'en 2061. HAL est-il déjà parmi nous ?
[]