📸 Réalité | Cybernetruc #12
#IA, ép. 12. Et si l'intelligence artificielle, ou plutôt l'augmentation de la puissance de calcul, rendait la réalité caduque ? On divague avec Stephen Colbert, Aldous Huxley, et Nicolas Cage...
CYBERNETRUC! explore de manière irrégulière nos imaginaires technologiques et numériques. À chaque billet on divague, on imagine et on n’a pas forcément les réponses. Vous êtes aujourd’hui bientôt cent-cinquante à lire cette lettre. Bonne lecture ! 😉
Des [💿], [📗] ou [📰] ? Cliquez, ils vous emmèneront vers des compléments d’information.
🌔 Astronomie
L’intelligence artificielle, ou plutôt les intelligences artificielles, modifient-elles la réalité ? Sans pour autant retourner dans la Caverne de Platon [📄] – en tout cas pas tout de suite – on pourrait user d’une petite anecdote pour démarrer la réflexion.
La qualité des images et des photos est l’un des chevaux de bataille des fabricants de smartphone depuis des années. Apple, Huawei, Samsung… rivalisent tous d’inventivité et d’ingéniosité pour nous vendre le mobile faisant les clichés les plus détaillés, les plus lumineux, les plus hires possibles. Et dans ce combat acharné, Samsung semble courir actuellement en tête. La fabriquant coréen de smartphone a annoncé récemment la création d’un mode “Astronomy” dans sa dernière génération d’appareil de la gamme Samsung Galaxy, un mode capable de prendre des clichés du ciel nocturne aussi précis que s’ils provenaient d’un télescope. La lune y apparaît dans ses moindres détails, les étoiles y sont brillantes… Sauf que.
Le débunkage réalisé par un journaliste tech révèle le pot-aux-roses de ce nouveau mode [📰] : loin d’avoir améliorer l’optique de ses téléphones, Samsung a simplement utilisé une intelligence artificielle reconstituant les cratères de la lune et les plaquant sur n’importe quel vue floue du satellite de la Terre. L’effet reste bluffant, mais le résultat n’est, en conséquence, plus réellement une photographie puisqu’il n’est plus un reflet fidèle de la réalité. Il est une réinterprétation de celle-ci par un algorithme afin d’y intégrer les détails que le photographe voulait y voir : une vue haute-résolution de la lune.
Cette manipulation de la prise de vue réelle, faite surtout sans aucune information donnée au photographe, pose bien des questions sur la réalité d’un cliché.
Une photo retouchée est-elle donc une photo, ou autre chose. Une photographie peut-elle encore être considérée comme un reflet, un témoignage de la réalité ou le doute est-il définitivement installé.
🔄 Aparté : De toutes façons, la manipulation des images, ça n’a rien de nouveau. Vraiment rien. Et l’on pourrait relire un ancien #Cybernetruc – 🎩 Illusion - pour retrouver une belle illustration de manipulation photo. Vous connaissez Colin Evans ?
On pourrait parler de la disparition de Trotski des photos soviétiques [📄], on pourrait aussi évoquer les filtres utilisés sur les photos de profil dans les apps de dating [📰]… la manipulation de l’image a existé dès que l’image elle-même a commencé à exister. Les aristocrates eux-mêmes, quand ils mandataient un artiste pour leur peindre un portrait exigeaient une version embellie d’eux-mêmes [📄].
Non. La question est cette fois ailleurs.
🟥 Filtres
La question n’est pas tant dans la manipulation des images elles-mêmes que dans la capacité de manipulation. Aujourd’hui, il est plus facile que jamais de modifier une image, mais il est surtout possible de le faire de manière massive, et en direct.
On se rappellera les craintes qu’avaient provoquées les DeepFakes – tiens, le mot n’est d’ailleurs quasiment plus utilisé – de Nicolas Cage [📹] ou de Tom Cruise [📹], et on comparera ces craintes à l’enthousiasme provoqué aujourd’hui par les filtres que Microsoft et d’autres acteurs de l’informatique d’entreprise s’apprêtent à déployer sur nos outils de communication en ligne. Là où les incarnations d’acteur demandaient encore énormément de travail – de copie de l’attitude physique notamment, dans le cas de Tom Cruise – et de calcul, il est désormais possible, grâce à l’intelligence artificielle, de modifier en direct l’apparence d’une personne pour que son regard reste centré sur la caméra pendant une réunion à distance entière [📰].
🔄 Aparté : Il faut absolument que vous lisiez le dernier numéro de la lettre Règle 30 de Lucie Ronfaut : Les deepfakes pornographiques n'existent pas sans les hommes [📰]. Il faut de toutes façons que vous vous abonniez à la lettre Règle 30. Ce n’est pas négociale.
Rien de particulièrement étonnant. Les filtres Snapchat – tiens, il existe d’ailleurs des filtres pour chien [📰] – nous avaient déjà initiés à cette possibilité en modification en live de la réalité. L’amélioration des performances informatiques, l’entraînement poussé des algorithmes et la démocratisation des outils de manipulation d’image va renforcer cette tendance à la correction “live” – ou en tout cas très rapide – des contenus. Jusqu’à nous pousser dans un monde où l’on doutera en permanence de la réalité des images, même quand celles-ci sont transmises en direct.
Les craintes sur notre perception du monde dérapent doucement. Loin de Matrix [🎥] et de la simulation totale du monde créée par les robots pour nous dominer, la question est plutôt : voulons-nous vivre en permanence dans un film de David Fincher dans lequel chacun est manipulé et exposé en permanence à une réalité alternative ? En vous laissant le choix éventuellement entre Fight Club [🎥], Gone Girl [🎥] ou The Game [🎥].
Je choisis personnellement The Game, sans doute le moins angoissant des trois.
🌈 Trip
On pourrait s’arrêter là sur nos inquiétudes quant aux développements rapides de la technologie. Mais on peut également tenter un ou deux parallèles de plus. Et pas forcément que positifs. La manipulation massive et en direct de la réalité peut mener à deux choses.
La première, c’est la manipulation de l’information. On a déjà vu le cas se produire plus d’une fois. Souvenez-vous par exemple du scandale Cambridge Analytica [📄] et de la manipulation des élections américaines de 2016 via Facebook. Extrapolons et imaginez donc aujourd’hui qu’une chaîne de télévision populiste – vous trouverez des exemples sans que je vous aide – déploie une technologie de deepfakes en direct sur son antenne et modifie donc en live ses reportages. Et qu’elle ne soit pas la seule à le faire, d’autres l’imitant mais avec d’autres algorithmes. Nous voilà donc plongés, par l’image cette fois et plus seulement par le discours, dans une multiplication des récits et des réalités même, et plus seulement de leur interprétation.
🔄 Aparté : Tiens, pour la peine, on ressortira des cartons le concept de Wikiality [📺] imaginé par l’homme de télévision américain Stephen Colbert en 2006 (déjà). Si la Wikipedia le dit, c’est que c’est vrai.
La seconde, c’est l’émergence d’un nouveau psychédélisme. Et si un réseau social, n’importe lequel, nous proposait en direct une version altérée, psychédélique, de la réalité ? Ne serions-nous pas tentés de l’essayer ? Ne risquerions-nous pas d’y devenir accrocs et de nous détacher progressivement de la vraie réalité à la manière de nouveau hippies ? C’est quoi, un trip à l’IA ?
Et si un bug modifiait notre réalité pour la rendre autrement plus agréable, ne serions-nous pas tentés de le reproduire pour vivre à nouveau ce moment ? Si le réel n’existe plus que derrière des filtres, deviendrons-nous demain des drogués de l’intelligence artificielle ?
On relira l’expérience de la mescaline d’Aldous Huxley. Ses Portes de la perception [📗], c’est peut-être notre réalité demain entouré de deepfakes et d’algorithmes.
Je vous laisse gamberger là-dessus.
Un petit mot à propos de l’auteur ?
François Houste est consultant au sein de la bien belle agence digitale Plan.Net France et auteur des Mikrodystopies, de très courtes nouvelles qui interrogent sur la place des technologies numériques dans notre quotidien.
Retrouvez-moi sur Twitter ou Mastodon pour continuer la discussion.
Merci de votre attention et à la prochaine fois pour parler d’autres choses !