linux-debian.net

Maîtrisez votre noeud dans le réseau de l'intelligence collective

Intelligence artificielle

email Facebook Twitter
Màj : 18 juin 2023   –   # pages : 8

Introduction

https://democratiedirecte.net/intelligence-collective#intro

Pourquoi une page "IA" sur ce site ? Parce que Linux-Debian nous conduit vers les systèmes informatiques libres. Or l'IA se développe actuellement sous forme propriétaire. Il importe donc que la communauté Linux-Debian s'y intéresse.

Intelligence ?

https://democratiedirecte.net/intelligence-collective#intelligence
IA.gif

Ce que nous appelons "intelligences artificielles" sont en réalité des systèmes sophistiqués :

  • d'interfaçage "discutationnel" avec l'utilisateur;
  • de requêtes dans des bases de données.

Ce que nous appelons "apprentissage" est en réalité l'enrichissement automatique d'une base de données par l'IA elle-même. Ce que les ordinateurs sont capables de faire depuis leur création, grâce à des algorithmes, nom savant pour "programme informatique.

Pour faire ces opérations, tout ce dont ont besoin les système d'IA, c'est, comme tout ordinateur, une capacité de stockage, et un processeur. Nous parlons d'IA depuis que ces capacités de stockage et de traitement des données ont dépassé celles du cerveau humain.

La capacité de stockage d'une mémoire se mesure en bits par unité de stockage; La puissance de calcul d'un processeur se mesure en bits par unité de transfert.

Définition

https://linux-debian.net/intelligence-artificielle#definition

Nous définissons l'IA comme « l'apprentissage automatique par des machines ("machine learning"). Celui-ci peut être réalisé par des ordinateurs appliquant des boucles de rétroaction ("feedback") à partir de l'exploration de données ("data mining") et le raisonnement logique » (algorithmes).

IA-schema.png

L'apprentissage automatique permet à des machines de faire des prévisions météo (notamment au moyen de la technique du réseau bayésien) ou encore de jouer aux échecs, tout en améliorant leurs performances au fur et à mesure des expériences.

Le web des objets permet de collecter des données de toutes sortes en temps réels. D'autre part, grâce au progrès technologique, la vitesse de calcul et la capacité de mémorisation des ordinateurs ont dépassé les capacités humaines (ou les ont étendues, selon l'interprétation transhumaniste), et sont en voie d'être démultipliées par des technologies telles que réseau neuronal et calculateur quantique.

Commercialement très porteur, le concept d'IA fait parfois l'objet d'interprétation abusives, notamment par l'exagération des capacités de technologies qualifiées d'IA.

Les 3 bugs majeurs du "big data" (4m54s - 2015)

Plus fort que le "big data" ? « Il y a quelques années, des chercheurs ont appris à un ordinateur à jouer aux échecs en entrant dans sa mémoire les millions de combinaisons des jeux existants, et il a été capable de battre le champion du monde. Plus récemment, une machine à qui on a appris à jouer, sans lui injecter les données, aurait atteint le meilleur niveau mondial en quatre heures » [source, à confirmer par une source scientifique ...].

Apprentissage automatique

https://linux-debian.net/intelligence-artificielle#apprentissage-automatique

Le modèle de Bak et Stassinopoulos (cf. democratiedirecte.net/intelligence-collective#autorganisation-modele-bak-stassinopoulos) se prête particulièrement bien à la programmation informatique (algorithmes), de sorte que l'apprentissage n'est plus limité aux organismes vivants, on parle alors "d'apprentissage automatique".

Problématiques

https://linux-debian.net/intelligence-artificielle#problematiques

Finalement l'IA est un forme évoluée de ce que l'on appelait au vingtième siècle les systèmes experts, qui étaient conçus et perçus comme des outils d'aide à la décision. Avec l'IA il y a un changement de paradigme : dès lors que les capacités de traitement des données (vitesse de calcul, et quantité de mémoire) par les ordinateurs on dépassé les capacités humaines individuelles on assiste à un déplacement de paradigme : les outils "d'aide à la décision" deviennent des instruments "de décision" (cf. les véhicules autonomes), capables "d'apprendre" par eux-mêmes c-à-d de se reprogrammer. L'on passe ainsi subrepticement du « politique, contestable parce que compréhensible par l'homme » au « scientifique, incontestable car incompréhensible par l'homme ».

Intelligence artificielle

Des scientifiques ont ainsi exprimé leur crainte que l'IA dépassant l'intelligence humaine, elle puisse la soumettre à son contrôle voire détruire le genre humain. D'autre scientifiques rétorquent que ce risque peut être neutralisé par la technique consistant à contraindre l'IA par des "contrats intelligents" dans des chaînes de blocs [source]. Il importe également d'utiliser des logiciels, du matériel et des données libres/ouverts.

La notion, résolument optimiste, de transhumanisme étend la problématique à une transformation disruptive des capacités psychiques et physiques des humains.

Le physicien François Roddier fait remarquer que les ordinateurs ont un effet semblable à une démultiplication des capacités de la partie du cerveau humain traitant la rationalité, le néocortex. « Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Mais l'intelligence se résume-t-elle à des concepts informatiques : qu'en est-il de la sensibilité, de l'humour, du sens critique ou encore de la notion plus collective de culture ?

Comparaison humain vs machine

https://linux-debian.net/intelligence-artificielle#humain-vs-machine
 1. Gestion de l'incertitude
 2. Bilan énergétique
 3. Subjectivité et diversité humaine

Des systèmes informatiques sont aujourd'hui capables de battre les meilleurs joueurs de jeu d'échec (première : superordinateur Deep Blue en 1997) et même du jeu de Go (première : programme AlphaGo en 2015).

Cette performance est due aux capacités supérieures de ces systèmes en matière (i) de stockage de grandes quantités de données et (ii) de vitesse de traitement de ces données, qui rendent possible des fonctions d'apprentissage automatique.

Gestion de l'incertitude

Voici une série de capacités cognitives propres aux êtres humains, et dans certaines mesures à l'ensemble des organismes vivants :

  • gestion de l'incertitude (NB : automatisable notamment au moyen de la technique du réseau bayésien) ;
  • extrapolation ;
  • "erreurs" commises par l'imperfection humaine mais qui produisent parfois de grandes avancées ;
  • capacité à prendre des décisions relativement adaptées à la situation malgré un manque substantiel d'informations en entrée (ce que l'IA réalise parfois très mal en comparaison avec les humains) ; ...

    On rejoint ici les notions d'intuition et d'art (du diagnostique médical par exemple), voire d'âme.

Comment les machines peuvent-elles reproduire ces comportements autrement qu'en les simulant. Mais simuler est-ce reproduire au sens de produire ? Si cette distinction est effective ne serait-elle pas liée à celle entre décision (par des humains) et aide à la décision (par des machines - exemple).

Bilan énergétique

Mais il serait intéressant de voir si l'apparente supériorité de l'intelligence artificielle (IA) sur l'intelligence humaine/naturelle résiste à l'analyse économique et plus particulièrement à l'aune du ratio "performance / consommation d'énergie". Pour une vitesse déterminée d'un traitement déterminé d'une quantité déterminée d'informations, l'intelligence artificielle consomme-t-elle moins, autant ou plus d'énergie que l'intelligence naturelle/humaine ?

La réponse est sans appel : L'intelligence artificielle consomme énormément d'énergie tandis que le cerveau fonctionne dans une économie d’énergie époustouflante : l’équivalent de deux bananes par jour ! [source].

Rien d'étonnant à cela. D'une part l'intelligence naturelle, étant le résultat d'un processus évolutif de plusieurs millions d'années, est probablement d'une efficacité redoutable. D'autre part, en raison du premier principe de la thermodynamique (la matière et l'énergie ne peuvent être créées ou détruites mais seulement transformées) la supériorité apparente de l'intelligence artificielle sur l'intelligence humaine ne peut "venir de nulle part", et doit très probablement impliquer une consommation plus élevée d'énergie.

Les coûts cachés
du numérique

L'intelligence artificielle est souvent évoquée comme moyen de rationaliser la consommation d'énergie. Ainsi Deepmind, la filiale IA de Google, a optimisé la consommation énergétique de ses centres de données et de ses systèmes de refroidissement grâce à l’apprentissage machine. Il a ainsi augmenté l’efficacité énergétique de ses centres de données de 15% [source p. 128].

Il importe cependant de souligner le caractère souvent illusoire de ces "économies d'énergie".

Il y a d'abord l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer. Or s'il s'avère que le réchauffement climatique (i) est essentiellement d'origine entropique et (ii) nuisible au développement durable, alors la "supériorité" de l'IA est une victoire à la Pyrrhus. Peut-on alors encore parler "d'intelligence supérieure" ?

Il convient en outre d'évaluer correctement l'apport de l'IA en matière de rationalisation énergétique, en intégrant dans les calculs la totalité des coûts directs et indirects, notamment l'énergie consommée pour fabriquer, utiliser et recycler le matériel, dont les processeurs et leur système de refroidissement.

Un processeur, c’est comme une résistance : presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques.

D'après une étude réalisée par Digital Power Group publiée en 2013 [source] les coûts énergétiques du numérique sont largement cachés, la partie connue n’étant que la pointe de l’iceberg. L’économie numérique de la planète consomme déjà 50% d’énergie de plus que l’aviation du monde entier. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés. Selon DPG la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations du secteur minier, la National Mining Association et l’American Coalition for Clean Coal Electricity [source].

Si l’on considère la totalité de son cycle de vie, le simple envoi d’un mail d’1 mégaoctet (1 Mo) équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes, soit l’équivalent de 20 grammes de CO2 émis. On ne s'étonnera donc pas de constater que le secteur des nouvelles technologies représente à lui seul entre 6 et 10 % de la consommation mondiale d’électricité, soit près de 4 % de nos émissions de gaz à effet de serre. Environ 30 % de cette consommation électrique est imputable aux équipements terminaux (ordinateurs, téléphones, objets connectés), 30 % aux data centers qui hébergent nos données, et 40 % aux réseaux, les fameuses "autoroutes de l‘information" [source].

Selon certaines estimations, à la fin des année 2020 la consommation d’énergie des appareils informatiques consommera 60 % de la quantité totale d’énergie produite, et deviendra totalement insoutenable d’ici 2040. Une solution consiste peut-être à remplacer les actuels processeurs électroniques (qui utilisent des électrons) par des processeurs optiques (qui utilisent des photons, lesquels ne génèrent pas de chaleur et se propagent plus rapidement) [source].

Enfin la consommation énergétique des nouvelles technologies n’est qu’un aspect du défi environnemental qu’elles posent. Ainsi nos smartphones contiennent des dizaine de différents métaux et terres rares (or, cuivre, nickel, zinc, étain, mais aussi arsenic, gallium, germanium, thallium, tantale, indium, ...) qui sont extraits du sous-sol en utilisant des techniques particulièrement destructives et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure et le cyanure [source].

Subjectivité et diversité humaine

Pourrions-nous construire une machine capable :

  • de ressentir :
    • des sensations de plaisir et de douleur (avec toutes les subtile intermédiarités, telles que le plaisir de l'effort physique pouvant aller jusqu'à la souffrance) ;
    • des sentiments de joie et de tristesse (avec toutes les subtiles intermédiarités que l'on résume par la notion d'émotions) ;
    • de la jalousie et de la colère par rapport à autrui (que l'on peut regretter lorsqu'elles ont des conséquences nuisibles, mais qui sont parfois à l'origine de brillantes réalisations humaines).
  • de rêver (NB : une activité que nous ne contrôlons pas) ;
  • de faire preuve de sens de l'humour (sous toutes ses formes : pince-sans-rire, absurde, grivois, ...) ;
  • de comprendre les points de vue de deux parties à un conflit, et de prendre des décisions de justice plus efficacement que des humains ? ...

Comment pourrions-nous en outre faire en sorte que les différentes reproductions de cette machine puissent se distinguer les unes des autres (et ainsi reproduire l'infinie diversité des personnalités humaines), tout en étant capables de constituer des groupes partageant des valeurs communes (cultures, ethnies, ...) et par rapport auxquels ces machines éprouveraient un sentiment d'appartenance, ... mais qu'elles pourraient par ailleurs rejeter, par exemple en raison d'un parcours "personnel" devenu incompatible avec celui du groupe ?

Mais quel serait le sens d'une telle démarche "créationniste" ("pour quoi faire"), et quel en serait son coût (*), notamment environnemental ?

(*) À cet égard la bio-ingénieurie permet de ne pas "réinventer la roue" (ou d'inventer la roue vivante ...).

Machines biologiques

https://linux-debian.net/intelligence-artificielle#machines-biologiques

L'ingénierie biologique est déjà en train de développer des ordinateurs entièrement composés d'éléments biologiques. Nous allons donc très bientôt être en mesure de créer des intelligences animales.

Ainsi une voie de l'IA biologique consiste, au lieu de développer des algorithmes qui imitent le fonctionnement des neurones humains, à construire du hardware biologique spécialisé dans le machine learning, à partir de cellules vivantes [source].

chatGPT

https://democratiedirecte.net/intelligence-collective#chatGPT

Quoi. ChatGPT est un agent conversationnel. Son mode de fonctionnement consiste à composer des textes qui fassent sens, selon des critères probabilistes. Par conséquent, les textes produits par chatGPT, bien que généralement non absurdes, peuvent néanmoins être faux. Ainsi par exemple, chatGPT peut produire des références bibliographiques (URL, titre, auteur, date de publication, ...), qui ne correspondent à aucune référence existante.

Dans ses échanges avec l'utilisateur, chatGPT s'exprime à la première personne (je). Ce choix de présentation des textes produits, ne signifie pas que chatGPT soit pourvu d'une forme de conscience. C'est juste une option d'interfaçage, choisie par les développeurs.

Comment. ChatGPT est pourvu d'une fonction d'apprentissage automatique, fonctionnant sur base d'une banque de données collectées sur Internet (sites officiels, Wikipedia, ...). ChatGPT n'est pas pour autant complètement autonome : il est paramétré par des opérateurs humains, afin de bloquer la production de résultats aberrants ou politiquement incorrects (notion d'apprentissage supervisé et filtrage).

Le code de chatGPT fait l'objet de constantes améliorations. La version est indiquée en bas de page web du site : "ChatGPT May 24 Version", à la date de rédaction de la présente phrase (12 juin 2023).

Modèle d'affaire. ChatGPT est produit par une entreprise privée états-unienne (openai.com). Contrairement à ce que le nom de cette entreprise peut laisser croire, ce système informatique n'est pas sous licence libre/"open source". Cette pratique de marketing trompeuse nuit à la crédibilité de l'entreprise et, partant, aux productions textuelles de chatGPT.

linux-debian.net
menu.jpg

Auteur : F. Jortay   |   Contact :   |   Suivre : infolettre

top-of-page.png