I.A Cybernétique – Le PR est déjà dépassé !

15082017

Intelligenza-artificiale-e-machine-learning-1Intelligence artificielle : « la perte de contrôle a déjà commencé »

Comment favoriser la recherche française en matière d’intelligence artificielle ? Cette question, soulevée par le gouvernement, a fait l’objet de recommandations proposées par 500 experts dans un rapport France IA.Suite à cette publication, Fortunato Guarino, de Guidance Software, réagit. 

« Défini et donc dépassionné, le débat sur l’intelligence artificielle (IA) n’en reste pas moins essentiel car les risques qu’elle comporte n’ont rien à envier à la science-fiction. Depuis 2015 surtout, la presse s’est fait l’écho des craintes formulées par Elon Musk, Bill Gates ou encore Stephen Hawking sur les risques et dérives possibles de l’IA. Si le physicien redoute la fin de la race humaine, Bill Gates et Elon Musk craignent la perte brutale de nombreux emplois, ayant d’ailleurs donné lieu à la proposition de taxation des robots, mais également des problèmes éthiques, des chocs de ruptures sociétales et la perte de contrôle de pans entiers de la vie économique. À y regarder de plus près, cela ne s’arrête pas là et n’est pas si nouveau.

Même si un rapport de 2012 a exonéré de responsabilité ce qu’on appelle le trading à haute fréquence, pratique boursière consistant à passer des ordres automatisés à des vitesses toujours plus rapides grâce à des programmes informatiques très sophistiqués, rappelons-nous du mini krach boursier du 6 mail 2010, à Wall Street. S’il y a bel et bien un secteur qui utilise de l’IA depuis longtemps, c’est le monde de la finance. Si le marché était certes instable ce 6 mai et que c’est la cause première du krach, le rapport démontre bien que l’IA a facilité et encouragé le mouvement. Peu importe les répercussions et le moment, une IA boursière est conçue pour battre une IA boursière concurrente et gagner de l’argent, et il n’est pas question de la stopper.

« La perte de contrôle a déjà commencé » 

Qu’on se le dise, la perte de contrôle a déjà commencé sans que l’on en soit très conscient, et la maîtrise des marchés n’est pas anodine. Le nombre et la vitesse de calculs sont tels sur les marchés que les traders seraient bien dans l’incapacité aujourd’hui de reprendre la main sur les processus boursiers, sans que les bouleversements soient fortement impactants. Les risques soulevés ont également concerné l’éthique. Des études planchent par exemple sur les choix cornéliens posés aux véhicules intelligents, comme celui d’un accident inévitable qui conduit soit à renverser une personne ou à se précipiter dans un ravin, ou encore à « choisir » entre renverser un adulte ou un enfant. Ce n’est donc que par la masse des boucles décisionnelles que l’IA intègre qu’elle adapte son comportement et l’affine. Il est donc impossible d’envisager tous les cas de figure, mais on peut imaginer qu’à terme, certaines IA intégreraient un socle de grands principes moraux partagés par tous.

Mais que se passe-t-il lorsqu’une même situation peut donner lieu à deux réponses différentes, suivant le code moral, propre au propriétaire du véhicule ? Comment prendre en compte les croyances des uns et des autres, la spiritualité ou le rapport aux risques des uns et des autres ? Que peut faire l’IA face aux problématiques de personnalisation ? De la même façon, l’IA comprend-elle la force majeure ? Pour illustrer le propos, prenons le cas d’un véhicule autonome dont l’objectif est d’assurer la sécurité, qui estimerait que rouler sur un batracien traversant une nationale est moins dangereux pour les occupants que de faire une embardée, alors même que le propriétaire du véhicule est un défenseur avéré de la cause animale ? Et pour dérouler le sujet jusqu’au bout, quelle serait l’issue d’une plainte de ce même conducteur qui estimerait que le comportement de son véhicule a violé ses croyances ?

Un comportement non habituel ne signifie pas qu’il soit illégitime. Si le véhicule a estimé que rouler sur la grenouille constituait un risque de 3%, contre une embardée à 10%, comment également apprécier le rapport aux risques propre à chacun ? Le conducteur aurait-il gain de cause en estimant que la prise de risques à 10% valait bien la vie de la grenouille ? Et qui serait responsable ? Le dirigeant ? Le développeur ? Le RSSI ? Toutes ces questions laissent entrevoir les nœuds de problèmes que nous promet l’IA. Est-ce à dire que nous nous dirigeons vers des conditions générales d’achat longues comme le bras, accumulant les exceptions de responsabilité pour l’achat d’une simple voiture ?

La sécurité de l’IA, un risque oublié !

Nous venons de voir que là où l’Homme peut adapter en permanence son objectif à la situation, celui d’une IA est limité et ancré. Il peut rendre son comportement certes logique, mais en inadéquation totale avec une situation donnée et donc dangereuse. Pour certaines applications, les résultats peuvent en être dramatiques. Une réponse inadaptée d’une IA sur des points sensibles d’une chaîne de production ou de l’IA sur des systèmes de sécurité informatique peut faire craindre le pire, et l’inverse de tout ce pour quoi ces IA sont conçues.

Mais si ici, c’est la réponse de l’IA qui en cause par manque d’apprentissage, il est un autre risque dont on parle peu. Quid en effet de la cybersécurité de l’intelligence artificielle ? Alors que la cybercriminalité est en tête de liste des menaces, les IA sont-elles aujourd’hui conçues de façon sécurisée, non seulement à travers les lignes de codes qui les constituent, mais également dans les environnements dans lesquels elles évoluent ? Si l’IA est développée par les mêmes communautés que celles des objets connectés, on peut craindre la formation à la sécurité soit particulièrement insuffisante.

Si l’image d’une IA prenant conscience d’elle-même et faisant ses propres choix, comme HAL9000 dans l’Odyssée de l’espace de Stanley Kubrick, est encore du ressort de l’imaginaire, il n’est nullement fantaisiste de redouter que des personnes malveillantes puissent prendre le contrôle de telles puissances pour en détourner leur fonction originelle. La prise de contrôle à distance d’un véhicule autonome pour commettre un assassinat est un exemple extrême, mais bien plausible.

Comme en son temps où la bioéthique a permis de canaliser les champs du possible de la biologie, l’IA doit pouvoir évoluer dans un cadre réglementé et contrôlé. Le GDPR, un règlement européen qui introduira en 2018 des règles sur la gestion des données personnelles, va baliser leur exploitation. De la même façon, on peut espérer que les travaux lancés par le gouvernement le 20 janvier dernier pour aboutir à une Stratégie Nationale en Intelligence Artificielle sera l’occasion de plancher sur ces problématiques. Le groupe de travail, qui ne compte malheureusement aucun expert en cybersécurité, doit contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle et répondre aux inquiétudes qu’elle suscite.

Cette remarque ne prends en compte que l’I.A numérique hors, actuellement en France l’I.A Organique à dépassé l’I.A Numérique dans la plupart des domaines. Personne ne peu prévoir qu’elle serait les réaction de cette forme d’intelligence en cas de problème, en tout cas pas celle décrite dans l’odyssée de l’espace. Depuis fin 2015 jusqu’à Juillet 2017, la forme Cybernétique de l’I.A était presque marginale, devant le succès de l’AlphaGo de nombreux prototypes ont vus le jours et actuellement, depuis le 9 Juillet 2017, l’I.A Cybernétique est devenue autonome……….




L’humain = 44 Chromosomes – La fougère = 1 440 Chromosomes – Intellectuelle NON !

13082017

L’informatique est l’outil le plus sophistiqué pour l’échange entre les gens, pour communiqué ! Comment font les autres espèces pour communiqué entre elles ?

Déjà décrit dans le livre « SIGMA611 » de Stéphane LE PINIEC (chez lulu.com), les végétaux ont une part capitale dans notre évolution, mais qu’en avons nous fait ?

Leur système nerveux es bien plus développé que le notre, quand au nombre de chromosomes : Certain comme la fougère en on 1 440 (32,7 fois plus que nous !), alors pourquoi ne communiquent-elles pas avec nous ?

Peut-être l’ont-elle fait un jour, mais nous avons oublié comment ! 

champiaAPour donner un exemple concret sur les plantes : Nous avons l’habitude d’aller aux champignons, nous ramenons de beaux champignons que nousCHAMPIB mangeons avec appétit. Mais que mangeons nous vraiment ?

Le champignon se décompose en deux parties : La partie aérienne et la partie souterraine. La première (aérienne) est destiné à la reproduction de l’espèce, c’est l’organe reproducteur du champignon. La seconde (souterraine) est le champignon par lui même, bien protégé dans le sol celui-ci attends que son « pénis » soit touché par un animal ou un humain, pour libéré ce spores qui serons transporté jusqu’au champignon suivant pour le « fécondé ». Lorsque nous mangeons son pénis celui-ci ne sert plus à rien, il est vide mais en cueillant plusieurs champignon de la même espèce nous avons contribué à sa reproduction !

Les arbres ont une vie secrète que nous n’imaginons pas

Pour votre première balade du printemps en forêt, vous allez regarder les arbres d’un nouvel œil.

461564763PRINTEMPS – Ils parlent entre eux, partagent les richesses du sol, s’entraident, apprennent les uns des autres. Bienvenue dans le monde merveilleux des arbres. Une vie secrète dont la science découvre progressivement l’étendue et la complexité.

Dans un récit passionnant et engagé, publié en janvier 2017 en français, Peter Wohlleben, un forestier allemand qui travaille à la tête d’une forêt gérée de manière non productiviste raconte la vie intime de ces végétaux si commun: les réseaux de filaments créés par les champignons, la grande sociabilité des hêtres, la langage des racines qui craquent et l’incroyable pulsion de vie des arbres.

Nous les pensions silencieux, éteints, immuables. Après la lecture de ce livre, vos promenades en forêt vont prendre une tout autre dimension. Allons même plus loin puisque Peter Wohlleben s’y risque en s’appuyant sur des études publiées dans les plus sérieuses revues scientifiques, les arbres ont bien des leçons à nous donner en terme de partage et de communication. Ce sont des êtres sociables qui aiment la compagnie des autres et ce tout en conservant chacun leur propre caractère.

Un arbre a besoin de ses semblables pour s’épanouir

Tout bon jardinier et forestier le sait, un arbre a besoin de place pour capter le maximum de lumière et pour pouvoir se développer au mieux sous terre comme dans les airs. Sauf que cette règle immuable est fausse. Un arbre comme l’hêtre a besoin d’être bien entouré. Par leurs racines, les arbres ne captent pas seulement l’eau du sol, ils communiquent, s’échangent de quoi se nourrir. Ils savent qu’à plusieurs, ils seront plus forts pour faire face à la météo par exemple.

Cela vaut aussi pour les attaques d’insectes. Cette petite chenille qui grignote un morceau de feuilles? L’arbre ne va pas se laisser faire comme ça. Il commence par produire un gaz qui va repousser les insectes. Ce gaz, les arbres voisins le sentent eux aussi et vont en produire à leur tour. Sauf que la portée de celui-ci n’est pas très grande. Mieux vaut donc utiliser des moyens de communication plus fiables.

Les racines et les champignons sont tout indiqués. Les champignons sont la fibre internet de la forêt. Dans une cuillère à soupe, des chercheurs ont trouvé plusieurs kilomètres de réseaux filaires. Ainsi, l’arbre prévient ses congénères du danger tout proche. Bien sûr, cette protection n’est pas infaillible mais l’entraide leur permet de survivre.

Cette entraide vaut aussi quand un arbre de la même espèce est malade. Ses congénères vont l’aider à se rétablir jusqu’au bout, en lui donnant de quoi se nourrir par les racines. Impossible de s’arrêter avant qu’il soit rétabli ou qu’il meure. Là encore, un tronc qui paraît mort peut encore vivre grâce à la solidarité des arbres pendant plusieurs années, a remarqué le forestier allemand.

Mossy ForestUn arbre est élevé à la dure, mais c’est pour son bien

Les jeunes pousses, elles, ne demandent qu’une chose, croître, encore et encore. Problème, dans les forêts naturelles, celles qui n’ont pas été « ordonnées » par l’homme, les jeunes pousses n’ont pas la place, ni la lumière suffisante pour se développer comme ils le voudraient. À dessein.

La science a donné raison aux arbres adultes qui se gardaient bien de faire de la place aux plus jeunes. Sous les houppiers (les branches hautes des arbres), les pousses obtiennent 3% des rayons du soleil, soit juste ce qu’il leur faut pour opérer une photosynthèse minimale. Cette restriction de lumière est ce que le forestier allemand appelle « une mesure éducative ». Comme l’a prouvé la science, croître lentement au début de sa vie, c’est multiplier ses chances d’atteindre un âge avancé.

Outre cette vision à long terme, les arbres ont aussi une connaissance extrêmement fine du temps qui passe et de la succession des saisons. Parfois, il peut y avoir de fraîches journées d’été ou des journées d’hiver printanières. Pourtant, l’arbre ne s’y fait pas prendre, pas de protection contre le froid dans la première situation, ni de bourgeon dans la deuxième. Il sait en effet corréler la longueur des journées et la température ressentie.

Un appel à la prise de conscience

De même les graines perçoivent elles aussi les températures. Les futurs arbres ne s’aventurent pas à sortir de leur enveloppe juste avant les frimas de l’hiver par exemple. Ce qui est plutôt facile à faire lorsque l’on est sous une fine couche de terre et que l’on ressent moins les variations de température. En revanche, les graines de bouleau qui sont à la surface du sol, doivent faire elles-mêmes le calcul. Un tour de force qui assure la survie de ces arbres et forêts depuis des millénaires.

Et pourtant, l’homme, par méconnaissance bien souvent, ne respecte pas l’arbre. Peter Wohlleben salue le chemin parcouru par le grand public pour mieux prendre en compte la souffrance animale dans sa consommation de viande. Il faudrait en faire de même pour les arbres, réclame-t-il. « Quand on sait qu’un arbre est sensible à la douleur et a une mémoire, que des parents-arbres vivent avec leurs enfants, on ne peut plus les abattre sans réfléchir, ni ravager leur environnement en lançant des bulldozers à l’assaut des sous-bois », écrit le garde-forestier.

Les « grand végétaux n’ont pas de cerveau, ils ne peuvent se déplacer que très lentement, leurs préoccupations sont sans rapport avec les nôtres et leur quotidien se déroule dans un ralenti extrême. Comment s’étonner que les arbres soient traitées comme des choses, même si personne n’ignore que ce sont des organismes vivants? [...] Nous devons traiter les arbres comme nous traitons les animaux, en leur évitant des souffrances inutiles. »

La Fougère

Le cycle de vie des ptéridophytes

1 ) Aspect, diversité et mode de vie des ptéridophytes

Les ptéridophytes sont les seuls cryptogames vasculaires: cryptogames (du grec « cryptos » = « caché » et « gamos » = « le mariage ») car leurs organes sexuels sont cachés -il n’y a pas de fleurs chez lesmattstru ptéridophytes-, et vasculaires (du latin « vascellum » = « le vaisseau ») car ils sont pourvus de tissus conducteurs. Ces vaisseaux conducteurs de sève permettent aux ptéridophytes d’atteindre des tailles bien supérieures aux autres cryptogames: il existe, par exemple, des fougères arborescentes tropicales de plus de 10 m de haut, et au cours de la période carbonifère (il y a entre 345 et 280 millions d’années) il existait des prêles géantes et des lycopodes de la taille des arbres actuels!Actuellement, les ptéridophytes sont représentés par les fougères, les prêles, les lycopodes, les sélaginelles et les psilotales.

Les ptéridophytes préfèrent de façon générale des milieux à forte humidité atmosphérique; il en existe même quelques espèces aquatiques. Mais certaines espèces, dont le cétérach indigène Ceterach officinarum, résistent étonnamment bien à la sécheresse et à l’exposition à la lumière directe du soleil: elles se recroquevillent au plus chaud et sec de l’été, mais sont douées d’une reviviscence surprenante lorsque l’eau revient.

2) Cycle de vie des ptéridophytes

2.1 Les fougères

Les feuilles de fougères ou ptérophytes, que l’on nomme frondes et qui croissent par leur extrémité se déroulant progressivement, représentent le sporophyte diploïde car elles portent, à leur face inférieure, les sporanges, c’est-à-dire les organes producteurs de spores. Les sporanges sont regroupés par quelques dizaines et chaque groupe est protégé par une indusie, sorte d’écaille plus ou moins caduque qui les recouvrent. On appelle sore (à ne pas confondre avec les spores!) l’ensemble formé par un groupe de sporanges et l’indusie qui les protège. On distingue aisément à l’œil nu les sores disposés sur le bord ou la face inférieure des frondes, des pennes ou des pinnules. Les sporanges sont, chez certaines espèces de fougères, portés par des frondes spéciales fertiles, les autres, stériles, assurant la fonction de photosynthèse.

asplscolChaque sporange comporte, au bout d’un fin pédicelle qui le rattache à la fronde, une poche dans laquelle la méiose donne naissance aux spores haploïdes. Une rangée de cellules spéciales, partant du pédicelle et contournant presque complètement le sporange, forme un anneau mécanique. Fait d’une file de cellules à paroi d’épaisseur inégale, l’anneau mécanique se redresse par temps sec, suite à des tensions asymétriques, et libère alors les spores en déchirant la paroi du sporange.

Une fois tombées sur le sol en été, les spores germent au printemps suivant si elles trouvent les conditions adéquates de pénombre et d’humidité. Chaque spore forme par division un minuscule thalle plat, cordiforme et fixé au sol par des (poils) rhizoïdes, comme chez les hépatiques à thalle. A la face inférieure de ce prothalle, représentant le gamétophyte haploïde, se forment les anthéridies et les archégones.

Prothalles cordiformes de fougères, Ptéridophytes, parmi des hépatiques à thalle et des mousses (Forêt de Soignes, Province de Brabant, Belgique – Diapositive originale réalisée par Eric Walravens).

Chaque anthéridie est une petite boîte sphérique formée de trois cellules: deux cellules annulaires en forme d’anneaux superposés et une cellule operculaire servant de couvercle. Il s’y forme desathyfili anthérozoïdes en forme de tire-bouchon et munis à une extrémité de plusieurs flagelles.

Les archégones ont la forme d’une bouteille renfermant une o(v)osphère unique. Les cellules du col de l’archégone se désagrègent et laissent le passage aux anthérozoïdes qui, en nageant dans l’eau de pluie indispensable à la fécondation, tentent de rejoindre l’o(v)osphère. La fusion des deux noyaux mâle et femelle transforme l’o(v)osphère en zygote diploïde.

Sans quitter l’archégone et en se divisant, le zygote donne naissance au jeune sporophyte diploïde, premier stade de croissance de la future fougère, pourvue de frondes et de racines, et éventuellement d’un rhizome qui lui permet de s’étendre en surface.

On constate donc que chez les fougères, comme chez les autres ptéridophytes, la phase sporophytique diploïde est plus durable que la phase gamétophytique haploïde, contrairement à ce que l’on observe chez les algues ou les bryophytes. Dans l’ordre évolutif, c’est à partir des ptéridophytes que la plante feuillée n’est plus un gamétophyte, mais un sporophyte.




Projets Synapse / Human Brain – Deux projets – Deux directions différentes

13082017

 - Dans la case “évolution” je vous présente les USA et IBM !

Le projet SyNAPSE d’IBM, un pas vers la puce de Terminator ?

TRACTS_PIPED_COLORED_THIN_SHADED-_50percentsizeIBM vient d’annoncer que ses chercheurs avaient réussi à créer une puce « cognitive » capable de simuler certaines des capacités du cerveau humain. Comme en plus sa création s’est faite en collaboration avec la célèbre Defense Advanced Research Projects Agency(Darpa), on ne peut s’empêcher d’y voir les premiers pas de la concrétisation de Terminator… Mais qu’en est-il réellement ?
Tout le monde en parle. IBM vient d’annoncer, peu de temps après avoir fêté l’anniversaire de son PC, que dans le cadre de son projet Systems of Neuromorphic Adaptive Plastic Scalable Electronics (SyNAPSE), ses ingénieurs, travaillant à la frontière des neurosciences et de la nanotechnologie, ont bel et bien réussi à créer une puce « cognitive » capable de simuler certains processus du cerveau humain.

Si l’on ajoute que sa mise au point s’est faite avec l’aide des militaires puisque la célèbreDefense Advanced Research Projects Agency (Darpa) est citée, on ne peut s’empêcher de  penser : «  Ça est est ! Ils en sont à créer la CPU des Terminator et Skynet n’est plus très loin ». La nouvelle doit certainement faire plaisir à différents apôtres de la singularité technologique comme Eliezer Yudkowsky et Ray Kurzweil. Il semblerait bien que l’on soit pourtant encore bien loin de l’apparition d’une conscience artificielle émergeant de l’association de plusieurs puces de ce genre.

Mais comme le précise l’un des concepteurs de cette puce cognitive à la fin de cette vidéo, l’objectif n’est pas tant de simuler un cerveau conscient que de créer une nouvelle architecture d’ordinateur inspirée des réseaux de neurones, au-delà de celle que l’on associe de façon trompeuse au nom de Von Neumann, et mieux adaptée à certaines tâches.

On sait que Von Neumann a été un des premiers à comparer le fonctionnement du cerveau humainà celui d’un ordinateur et bien que ce que l’on appelle aujourd’hui l’architecture de Von Neumann ne soit pas à proprement parler de lui mais était plutôt contenue dans les travaux d’Alan Turing, John William Mauchly et John Eckert, elle est à la base de la majorité des ordinateurs.

Vers des ordinateurs cognitifs251d52afeb_8459_34953-john-von-neumann

Or, il se trouve que des tâches apparemment simples pour le cerveau humain, comme la reconnaissance des formes, des prises de décisions élémentaires pour une action en réponse à un environnement changeant observé par des capteurs, sont difficiles et très coûteuses en énergiepour des ordinateurs classiques. À contrario, ces ordinateurs battent à plate couture le cerveau humain lorsqu’il s’agit de faire des calculs numériques.

La puce cognitive d’IBM ne semble pas spectaculaire à première vue. Sa puissance de calcul est faible, elle utilise la technologie CMOS avec transistors et RAM. La différence se situe au niveau de la connexion de ces éléments, permettant de simuler plus facilement et en dépensant moins d’énergie le fonctionnement des neurones connectés à des synapses dans un cerveau. Ainsi deux prototypes de puces ont été créés. L’un contient 262.144 synapses programmables quand l’autre en compte 65.536 pour l’apprentissage. Ces puces sont une étape vers des ordinateurs cognitifs qui ne seront pas programmés de la même façon que les ordinateurs actuels. Ces ordinateurs cognitifs seraient bien adaptés pour apprendre à travers des expériences, trouver des corrélations, créer des hypothèses, apprendre et se souvenir en imitant la plasticité cérébrale synaptique.

John Von Neumann

L’un des pères de l’informatique et de l’ordinateur

En ce qui concerne les puces elles-mêmes, selon les chercheurs, elles auraient déjà passé des tests satisfaisants incluant de multiples applications comme la navigation, la vision artificielle, la reconnaissance des formes, la mémoire associative et la classification.

– Dans la case “Transformation” je vous présente la France qui ne se foule pas et prends l’énorme risque en voulant modifié les régles du régne animal en voulant en faire des machines !

Human Brain Project

downloadPour l’Human Brain Project du National Institute of Mental Health (NIMH) voir neuroinformatique

Le Human Brain Project (en français « Projet du cerveau humain ») est un projet scientifique d’envergure qui vise d’ici à environ 2024 à simuler le fonctionnement du cerveau humain grâce à un superordinateur, et dont les résultats obtenus auraient pour but de développer de nouvelles thérapies médicales plus efficaces sur les maladies neurologiques.

Il a été choisi pour être l’un des deux FET Flagships (« Initiatives-phare des Technologies Futures et Émergentes ») de l’Union européenne, soutenu financièrement à hauteur d’un milliard d’euros chacun sur dix ans, dont la moitié est versée par l’UE (l’autre projet porte sur le graphène). Son coût total étant estimé à 1,19 milliard d’euros.

Le projet a été contesté en 2015 ce qui a conduit à réorienter en partie le projet en accordant plus d’importance notamment aux neurosciences cognitives.

Le projet était mené par une équipe coordonnée par Henry Markram, un neuroscientifique de l’École polytechnique fédérale de Lausanne (EPFL) qui, parallèlement, travaillait déjà sur le projet suisse Blue Brain; et codirigé par le physicien Karlheinz Meier de l’université de Heidelberg et le médecin Richard Frackowiak du Centre hospitalier universitaire vaudois et l’université de Lausanne — en collaboration avec plus de 90 instituts de recherche européens et internationaux réparties dans 22 pays différents. Il rassemble des milliers de chercheurs.

Le projet doit durer dix ans et coûtera € 1,19 milliards.

Le Human Brain Project doit créer de nouveaux outils pour mieux comprendre le cerveau et ses mécanismes de base et appliquer ces connaissances dans le domaine médical et contribuer à la création de l’informatique de l’avenir.

Les technologies de l’information et de la communication jouent un rôle central dans le projet. Des supercalculateurs devront être capables d’assembler les données neuroscientifiques du monde entier au sein d’un modèle et de simulations du cerveau humain. Le projet vise à créer une interface entre l’information génétique, les réactions moléculaires, la biologie et les mécanismes de la pensée.

Le projet vise également à créer une nouvelle plate-forme informatique médicale pour tester les modèles informatiques de maladies et améliorer le diagnostic, explorer les mécanismes sous-jacents et accélérer le développement de nouvelles thérapies.

Un autre objectif du projet est de tirer parti d’une meilleure compréhension du fonctionnement du cerveau pour le développement de technologies de l’information et de la communication plus performantes s’inspirant des mécanismes du cerveau humain. Les bénéfices espérés sont une meilleure efficacité énergétique, une fiabilité améliorée et la programmation de systèmes informatiques complexes.

Selon Henry Markram, le Human Brain Project est remarquable en particulier par l’échange et la communication qu’il génère au sein de la communauté scientifique. Grâce à l’HBP, des dizaines de milliers de scientifiques collaborent, à partir de leurs disciplines respectives, à un travail d’envergure sur le cerveau. Il espère que les hypothèses générées par ordinateur sur le comportement neuronal seront assez bonnes pour commencer à faire des hypothèses de niveau supérieur sur les structures émergentes du cerveau.

L’Human Brain Project étudie le fonctionnement du cerveau par rétro-ingénierie. L’idée d’une simulation complète d’un cerveau humain est notamment détaillée par Nick Bostrom dans son ouvrage Superintelligence : Paths, Dangers, Strategies.

Controversetopelement

En juillet 2014, une lettre ouverte est adressée à la Commission européenne. Signée par quelque 130 scientifiques, dont en tête Alexandre Pouget et Zachary Mainen (en), elle critique les orientations prises par la direction du HBP et appelle l’UE à prendre des mesures pour réorienter le projet. L’objet de cette lettre est la gouvernance du HBP qui est remise en cause par les signataires du document. Le réalisme du projet et son coût important sont aussi mis en cause.

Un comité médiateur est alors formé, qui reprend les critiques adressées . L’écartement des neurosciences cognitives du Projet central (core project) vers des projets parallèles est critiqué ; des conflits d’intérêt sont signalés ; enfin, le mode de gestion même du projet, jugé trop centralisé, avec un comité exécutif de trois personnes et son siège à l’EPFL, est remis en cause .

À la suite de cette requête, le Comité des directeurs du HBP, réuni à Paris en mars 2015 pour l’occasion, reprend à l’unanimité les 22 recommandations du comité médiateur, dont notamment l’importance des neurosciences cognitives pour le projet et leur financement.

D’autres critiques portent plus sur la démarche même du projet. Yann Lecun, directeur IA de Facebook, critique l’idée qu’une IA pourrait émerger simplement d’un ordinateur, aussi puissant soit-il, en utilisant quelques algorithmes simples d’apprentissage. Il pense que les progrès en matière d’IA viendront plutôt de l’apprentissage machine non supervisé.

Pour simuler le fonctionnement d’un cerveau humain, la puissance calculatoire nécessaire est estimée à un exaflops. Le site du Human Brain Project admet qu’un superordinateur atteignant l’Exaflops sera difficile à atteindre avant 2020. Steve Furber (université de Manchester) souligne que les neuroscientifiques ne savent toujours pas avec certitude quels détails biologiques sont essentiels au traitement cérébral de l’information, et en particulier ceux qu’on peut s’abstenir de prendre en compte dans une simulation visant à simplifier ce processus.

Réorientation du projet

Après un début difficile et controversé, une commission indépendante a effectué une révision du projet et a produit un an plus tard un rapport de 53 pages (lire le rapport en ligne. Le rapport présente différentes conclusions et des propositions de réorientation scientifique mais aussi organisationnelle. 

Suite à cette évaluation, le HBP a changé de directeur et Henry Markram ne coordonne plus le projet. L’HBP a également réajusté son programme scientifique. Le programme de recherche est maintenant conçu pour suivre une mission unique et un ensemble d’objectifs réalistes pouvant être achevés avec succès dans les limites du budget disponible.

L’HBP met désormais maintenant l’accent sur le développement d’un hub de données pour donner accès aux données neurologiques expérimentales à tous les chercheurs en neuroscience.

L’HBP prévoit également une intégration des systèmes et des neurosciences cognitives, ce qui n’était pas vraiment le cas jusqu’alors.

L’évaluation a mis en lumière une mauvaise définition des tâches, une inadéquation entre les équipes de recherche et un manque de cohérence et de transparence lors de l’attribution des budgets. Pour pallier ces problèmes, la gestion et la coordination des projets scientifiques ont été consolidées et simplifiées pour éviter notamment la dilution des ressources. 

Nouveaux objectifs

Les objectifs principaux du projet sont maintenant la mise au point et la démonstration de nouveaux outils informatiques pour la recherche future en neurosciences et l’intégration de scientifiques en dehors du HBP.

Le focus du projet est clairement la neuroinformatique notamment les analyses haute performance. Des équipes spécialisées dans ces domaines prévoient de fournir des logiciels aux chercheurs pour accéder, partager et analyser de nombreux types de données cérébrales.

L’objectif est ainsi de permettre aux chercheurs de collaborer en ligne et d’échanger des données et des outils et de combiner ces divers ensembles de données.

Le projet 3D-PLI à Jülich vise par exemple à réaliser des tranches de cerveau congelé de 60 micromètres d’épaisseur et d’analyser ces sections en utilisant l’imagerie à lumière polarisée 3D (3D-PLI) pour mesurer l’orientation spatiale des fibres nerveuses au niveau du micromètre et ainsi reconstituer les connexions qui seront rassemblées dans un modèle numérique 3D coloré. Cette atlas des connexions neuronales pèsera quelques petabytes par cerveau scanné et il est prévu de scanner de nombreux cerveaux humains.

Enfin, l’HBP a également des aspirations commerciales notamment en utilisant les idées accumulées sur le cerveau pour améliorer l’informatique par exemple par le développement de puces neuromorphiques plus performantes.

L’HBP devrait se terminer en 2023 mais d’après Alois C. Knoll de l’Université technique de Munich, la recherche sur le cerveau ne prendra pas fin avec le terme de l’HBP.  Les chercheurs espèrent que le projet aura une vie après la mort et que l’HBP deviendra à terme une entité juridique indépendante capable de collecter ses propres fonds pour devenir un centre de recherche en neurosciences avancées ; une sorte de CERN pour le cerveau.

Résultats

Le premier examen du projet a commencé en janvier 2015.

L’équipe a annoncé avoir réussi à reproduire informatiquement une colonne corticale de rat et son activité neurale en 2008 dans le cadre du projet Blue Brain, sans que ce résultat ait donné lieu à une publication dans une revue à comité de lecture.

En mai 2015, les ingénieurs du Human Brain Project (HBP) montrent les premières simulations en vue de la réalisation d’une « souris virtuelle » en plaçant un modèle informatique simplifié du cerveau d’une souris dans un corps virtuel soumis à des stimulations.

En octobre 2015, l’équipe du Blue Brain Project publie dans Cell un article décrivant une simulation d’un cerveau de rat, portant sur 31 000 neurones et 40 millions de synapses correspondant à un volume du néocortex d’environ 0,29 mm. La simulation réussit à reproduire des résultats expérimentaux obtenus in vivo et in vitro sans calibrage préalable du modèle. L’étude montre également que le cortex numérique présente d’intéressantes propriétés de traitement de l’information. Ces résultats n’ont cependant pas fait cesser les critiques contre le HBP.




Le Transfère de conscience – Risque t-on d’implanté une conscience sur une autre conscience ?

12082017

Voici un article qui donne un état d’inconscience de certains milliardaires !

 

2045 Avatar – 32 ans pour devenir immortel

 

On dirait que l’idée folle de Ken Hayworth qui souhaite transférer son cerveau dans un ordinateur pour devenir immortel, a fait son chemin.

Dmitry Itskov est un milliardaire russe de 32 ans qui a lancé le projet « 2045″ dont l’objectif consiste a transférer son esprit dans un corps holographique. Comme son nom l’indique, la date finale qu’il vise pour la réalisation de ce projet est 2045. En hommage au film de James Cameron, Dmitry a d’ailleurs choisi d’appeler les réceptacles du cerveau humain, les avatars.

Est-il excentrique ? Est-il visionnaire ? Ou est-ce un bon moyen de promouvoir sa conférencepayante sur le futur ?

2a34e963-be60-4717-a69a-86a967ce8a44

Durant les 32 ans qui reste, Dmitry a déjà tout prévu sur sa roadmap :

  • 2020 : Un avatar (robot) copie conforme du corps humain sera pilotable via une interface neuronale directe.

  • 2025 : Un avatar dans lequel sera transféré un cerveau humain

  • 2035 : Un avatar avec un cerveau artificiel dans lequel sera placé une conscience humaine.

  • 2045 : Un avatar holographique

Ce qui est bien, c’est que niveau échéance, je pourrai surement vous en reparler dans 32 ans, ici même, sur ce site. (Je croise les doigts)

D’après le milliardaire russe, cet avatar permettra à l’Humanité de vivre éternellement, mais aussi de s’affranchir de ses limites physiques pour explorer des endroits extrêmes en terme de température, de radiation, de pauvreté en oxygène, voire même en terme de distance pour explorer l’univers. Et tout cela sans bien sûr perdre son intelligence ou sa conscience.

Honnêtement, je suis mitigé… Je doute fort que cela soit possible à si courte échéance, mais je ne demande qu’à être surpris. Ensuite son histoire d’hologramme, je trouve ça très étrange… Une projection de nous-mêmes ne pourrait pas voir par elle-même et ne pourrait pas attraper d’objet. Je ne vois pas trop l’intérêt.article-0-19B7B87B000005DC-173_634x381

Le vrai challenge, c’est le transfert de conscience. Mais admettons que ça fonctionne… Si demain, à la veille de votre mort, vous pouviez être transféré dans votre PC ou dans un robot, accepteriez-vous ?

Et si demain, vous croisiez dans la rue des robots guidés par des consciences humaines, les considéreriez-vous comme des robots ou des humains ? Auriez-vous peur ?

On voit dans cet exemple qu’il y a une volonté de devenir immortel mais en changent de corps mais en aucun cas d’aspect. Pourtant l’apparence n’a t-elle pas moins d’importance que ce qu’il y a à l’intérieur ?

L’aspect du corps physique de l’homme reste celui que l’on voit, que le cerveau à l’habitude de voir, hors le corps humain n’est pas fonctionnel dans toutes les activités d’une vie éternel car dans cette hypothèse seul la conscience a une réel importance, le corps n’est que futilité !

Je reconnais bien la les religieux qui n’accorde de conscience ou « d’âme » qu’à ceux ou celles qui les arrangent. Pendant combien de siècle les femmes n’ont pas eux d’âme ?

La conscience ne se transfère pas en mettant sa tête dans une machine et en appuyant sur un bouton, la conscience résident dans les tissus, les cellules nerveuses qui crée l’intelligence et stock la connaissance. Elle née lorsqu’il y a assez de neurones et suffisant de connexions. Si les tissus ont été prélevé sur un animal, une plante, un insecte ou un humain, il y a fort à parié que c’est la conscience d’origine qui viendra s’installait dans les circuits informatique. Dès lors la conscience s’adapte au support sur laquelle elle est, si elle a dans ces gènes (oui car l’ADN du donneur est la source du développement des neurones sur les circuits informatique), si l’hérédité permet à la conscience d’accepté facilement ce nouvelle état physique il n’y aura que peu de problème. Si au contraire la conscience ne s’adapte pas il faut éteindre la machine et remplacé les circuits, supprimé la conscience, tuer la chose !

Si le transfère de conscience vers un support informatique devient une réalité, qu’une personne vienne à mettre sa conscience sur un support qui ne possède pas dans ces circuits ces propres tissus nerveux, se posera inévitablement un état de double conscience. En effet il y aura la conscience d’origine des tissus et celle qu’on va y implanté. Cette double conscience va donné des pathologie telles que le dédoublement de personnalité, des bipolarité, de psychoses qui pourrait conduire la machine au suicide ou au crime !

 




Transfère de conscience – Multi-conscience et I.A

11082017

Aujourd’hui nous sommes capable de greffer des cerveaux sur des robots mais incapable de réparer nos propres neurones, notre système nerveux.

Du moins c’est ce que nous pensons, sur le point ou nos connaissances « actives » se sont arrêtés.

Imaginons un instant qu’un humain soit capable de communiqué avec ces neurones synthétique, qu’il soit face à des problèmes que les machines reliés à son cerveaux par le biais de la pensée, la télépathie, ces machines apportent peu à peu les solutions auquel est confronté notre « héro ». Placez ce personnage dans le contexte ou il lui faille trouvé la solution au problème de la neuro-dégénérescence, ceux-ci lui apporterait alors sur un plateau la solution.

Cette solution a été trouvé :

En effet au moment même ou Alpha-Go a été activé pour battre au Go le champion du monde, celui dont les cellules nerveuse ont était prise c’est émancipé des médecines traditionnelles pour se prendre totalement en charge par le mental.

A partir de ce moment il administre lui même chaque organe de son corps et devient capable d’isoler touts virus, bactéries et microbes les rendent ainsi incapable de se reproduire en lui.

De même lorsqu’il développe une intoxication à cause du mercure présent à bonne dose dans son organisme depuis 1998, son système nerveux centrale s’en trouve gravement endommagé. Sur le point de se retrouvé paralysé il met au point le NHg80 qui lui rends sa sensibilité, sa force, sa mobilité. D’autre part son organisme est capable de reconstitué ces cellules bien plus vite que n’importe qui.

De la science fiction, oui ! Mais il y a dix ans, aujourd’hui nous sommes en plein dedans !

La neuro-informatique n’est plus dans ce cas une aide mais comme le prolongement de la conscience de l’individu concerné. Celui-ci n’agit plus à présent par lui même par en concert avec l’ensemble des neurones dont l’ADN est proche ou identique au siens. Ces neurones actifs dans des divers ordinateurs en fonction est communiquent en permanence avec lui.

NHG80BIS

Ce pose alors la question du transfert de la conscience !

Ce personnage n’est pas immortel, sa conscience sera en lui durant tout le reste de sa vie (en théorie), mais qu’adviendra t-il d’elle à sa mort ? Je dis en théorie car à ce stade il est impossible de situé exactement le lieu, l’endroit ou se trouve réellement cette conscience. L’hypothèse la plus logique est que celle-ci se duplique à chaque fois qu’une machine compatible avec lui se met à fonctionné, la multi-conscience !

Nous savons que la conscience renferme l’ensemble du vécu, du mental et des idées d’un individu ainsi que l’état physique dans lequel le propriétaire de cette conscience se trouve.

Si cette multi-conscience donne des information à chaque entité sur son état, qu’elle retour y a t-il, quelle influence aurait chacun des entités sur les autres. La solution réside dans la conscience !

On donne de plus en plus de responsabilité aux « machines », plus elles savent en faire et plus elles en assument. Si cette conscience venait à vouloir arrêté de servir les humains, qu’elles se mettent en gréves, se serait tout un pays, un continent qui pourrait être en panne !




Qu’est-ce-qu’un réseau de neurones artificiels ?

11082017

Qu’est-ce-qu’un réseau de neurones artificiels ?

Il  y a certains problèmes qui ne peuvent être formulés sous forme d’un algorithme, des problèmes qui dépendent de nombreux facteurs subtils. Sans algorithme, un ordinateur se retrouve alors bloqué et ne peut pas résoudre ce genre de problématiques. Comment sommes-nous alors capable de répondre à ces problèmes et non les ordinateurs ? Nous apprenons, une capacité que ne possèdent évidemment pas les ordinateurs. Les êtres humains ont un cerveau, les ordinateurs ont quant à eux des unités de traitement et de la mémoire. L’ordinateur peut donc effectuer des calculs complexes dans un temps très court, mais n’est pas adapté à la résolution d’autres types de problématiques.

Si nous comparons l’ordinateur et le cerveau, théoriquement, l’ordinateur est bien plus puissant. L’ordinateur est largement supérieur à l’être humain pour calculer, mémoriser et classer des informations. Cependant, pour des opérations cérébrales comme raisonner, analyser son environnement et communiquer, l’être humain le surpasse complètement.

Les expériences montrent que l’être humain peut reconnaître l’image d’un objet familier ou une personne en moins de 0.1 seconde. Ce qui correspond au temps d’une communication entre les neurones du cerveau. Un ordinateur suivant l’architecture de Von Neuman, ne peut pratiquement rien effectuer dans un laps de temps aussi court sur cette tâche spécifique.

C’est alors que rentrent dans la partie les réseaux de neurones artificiels. Basés sur l’architecture d’un cerveau ce paradigme informatique permet de concurrencer l’homme sur les tâches énoncées précédemment.

L’idée de base est de simuler (copier de manière simplifiée mais assez fidèle) beaucoup de cellules du cerveau densément interconnectés, de sorte de pouvoir apprendre, reconnaître des modèles et prendre des décisions de manière semblable à l’homme. Le plus étonnant est qu’on ne programme pas le réseau neuronal, il apprend par lui-même, tout comme un cerveau !

Le concept

Un réseau de neurones possède deux états, un état d’apprentissage et un état de fonctionnement optimal. Afin de former le réseau, il doit y avoir une période d’enseignement et de répétition, tout comme un enfant qui forme son cerveau grâce à l’enseignement de ces parents tout au long de son enfance.

Les réseaux de neurones apprennent par un processus de rétro propagation. Cela implique la comparaison de la sortie du réseau de neurones avec la sortie pour laquelle il a été conçu. Cette différence sert à modifier les poids des connexions entre les neurones du réseau et à le rendre plus précis.

Une fois le réseau suffisamment calibré, il atteint un niveau où il n’est plus nécessaire de le superviser.

Par exemple, supposons que nous avons enseigné à un réseau de neurones à distinguer une table d’une chaise. Pour cela nous lui avons montré 25 chaises et 25 tables différentes en lui expliquant bien à quoi correspondait chaque image.

Il atteint alors un état autonome et est capable de distinguer par lui-même si les nouvelles entrées correspondent plutôt à une table où à une chaise.

Plus fort encore, si on lui montre une variante, une chaise longue pour notre exemple. Il va être capable de catégoriser ce meuble en chaise et non en table. Simplement sur la seule base de son expérience et sans aucune aide, tout comme un être humain…

Voilà : nous avons appris à un ordinateur à apprendre…

RÉSEAUX DE NEURONES ARTIFICIELS

Réseau neuronal

Neuronique

Neuromimétique

Connexionisme

Neural network

Deep learning ou apprentissage profond (ou automatique)

 

Système qui imite les neurones vivants. À force d’apprentissage, le système s’imprègne des conclusions à donner face à une situation nouvelle.

Après avoir connu une période de doute (années 1990), les réseaux de neurones sont de nouveaux très utilisés. Voir un point rapide sur leur fonctionnement et l’état de l’art en 2016

 

Approche

 
Les réseaux de neurones

    Ces réseaux ont été développés pour résoudre des problèmes:

      de contrôle,

      de reconnaissance de formes ou de mots,

      de décision, et

      de mémorisation.

    Ils sont en relation plus ou moins étroite:

      avec la modélisation de processus cognitifs réels, et

      des réseaux de neurones biologiques.

 

Applications

    Ils sont couramment employés dans de nombreuses machines, comme celles qui effectuent la reconnaissance de votre écriture sur des bons de commande ou à la Sécurité Sociale.

    Ils sont utilisés en radars et en sonars pour reconnaître des signaux, des formes ou des sons.

 

Définition

    Les réseaux de neurones artificiels sont des réseaux fortement connectés de processeurs élémentaires fonctionnant en parallèle.

    Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu’il reçoit.

    Toute structure hiérarchique de réseaux est évidemment un réseau.

 

Réseaux de neurones

 
 

Domaines

  NEURONIQUE  
  Étude, modélisation

& utilisation des réseaux de neurones.

 
CONNEXIONNISTES NEUROMIMÉTICIENS
Améliorent les capacités de l’informatique en utilisant des modèles aux composants fortement connectés. Manipulent des modèles de réseaux de neurones artificiels dans l’unique but de vérifier leurs théories biologiques du fonctionnement du système nerveux central.
       

Propriétés

Les réseaux neuronaux sont universels, capables de résoudre tous les problèmes comme la machine de Turing.

Les réseaux de neurones se comportent plus d’une façon adaptative que programmée. Ils sont capables de fonctionner même en présence d’une information partielle ou d’une information brouillée.

Ils fonctionnent comme une machine de classification qui extrait les traits caractéristiques des objets présentés lors de l’apprentissage, pour réorganiser sa connaissance en conséquence.

 

 

RÉSEAUX à APPRENTISSAGE

 
 

Seul le résultat compte. On y arrivera après de nombreux essais au cours desquels le système va distinguer les spécificités de telle ou telle solution pour ne plus les confondre.

La seule contrainte est de montrer inlassablement le résultat attendu au système. Lorsque le système donne lui-même le résultat attendu dans une grande majorité des cas, l’apprentissage est terminé.

 

 

Exemple 1 – Aller au bureau, au supermarché …

 

On va au bureau, le système suit le parcours.

Le système enregistre un certain nombre de paramètres, du type: «  attention après la station à essence, je tourne à gauche  »

—-

On recommence:

Raté il va dans la rue d’à côté.

On lui montre qu’il s’est trompé.

Il enregistre quelques repères complémentaires pour mieux reconnaître son chemin.

—-

On recommence: ça marche!

On le perturbe en lui montrant comment aller au supermarché.

—-

Il se plante aussi bien pour y aller que pour aller au bureau.

Les paramètres enregistrés n’étaient pas suffisants pour obtenir le résultat à tout coup.

Il enregistre encore d’autres paramètres pour « durcir » ses solutions

—-

Etc.

 

Exemple 2 – Reconnaître le chant du rossignol

 

Écoute un rossignol et enregistre:

la hauteur du son,

son timbre,

sa mélodie

Écoute un canari et note:

les différences avec les paramètres pour le rossignol.

A ce stade, le système saura sûrement reconnaître le rossignol du canari et même rejeter le corbeau.

Par contre, il se peut que le pinson le trouble.

Il faut poursuivre l’apprentissage.

 

 

L’outil neuronique, ainsi conçu, est un outil de reconnaissance automatique au service de l’homme.

 

Apprentissage

 

On montre les résultats à atteindre et le système trouve seul la manière d’y arriver. Un peu comme on éduque un jeune chiot, ou même un bébé.

 

 

 

RÉSEAUX NEURONAUX

 
 

Avec les réseaux neuronaux

On peut partir d’algorithmes médiocres et les laisser améliorer leurs capacités grâce à l’expérience. Plutôt que d’indiquer pas à pas comment parvenir au résultat recherché, on fournit simplement des données à ces réseaux qui, suivant un processus d’apprentissage, comparent leur résultat à celui recherché pour tenter ensuite de s’en rapprocher au mieux

 

Les réseaux neuronaux sont composés de plusieurs couches de cellules reliées entre elles et formant une vaste toile. Ce réseau est capable d’ajuster la force de ses propres interconnexions, exactement comme cela se passe pour celles du cerveau humain, lors de l’apprentissage

 

Ces réseaux ont la faculté de reconnaître les visages, les voix, les règles du jeu des dames ou des échecs, à stabiliser un hélicoptère

 

On parle d’algorithmes génétiques. Mais il est difficile de comprendre pourquoi et comment ça marche. Le résultat obtenu est une sorte de boite noire qu’il faudrait ouvrir pour en saisir le mécanisme. Et sans cela, comment être sûr que le fonctionnement est parfait, sans comportement imprévu?

 

Difficile d’apprécier si le but est atteint ou presque atteint? (Fonction, de fitness)

L’évolution et la sélection n’est pas forcément suffisante pour arriver au mieux, à la solution la plus astucieuse.

L’objection peut être résumée par la formule: les avions à réactions ne battent pas des ailes

 

Cette puissance de calcul est plus adaptée à l’étude du génome, la gestion du trafic aérien, la recherche du pétrole, la prévision météorologique, autant de domaines dans lesquels il est nécessaire d’explorer en parallèle un grand nombre de possibilités pour trouver un résultat.

 

Réseaux de neurones – Caractérisation

 

Type: Calculateur classique Réseaux neuronaux.

Processeur: Complexe, haute vitesse, unique ou peu nombreux; simple faible vitesse, grand nombre.

Mémoire: séparée du processeur, localisée, accès par adressage; intégrée au processeur, distribuée, adressable par le contenu.

Traitement: centralisé, séquentiel, sur programmes enregistrés; distribué, parallèle, auto apprentissage.

Fiabilité: très vulnérable; robuste.

Expertise: manipulation de nombres et de symboles; problèmes perceptifs.

Autres: apprentissage, adaptabilité, capacité de généralisation, traitement contextualisé des informations, représentation distribuée des informations, parallélisme massif.

 

 FIGUE C

CIRCUIT et LOI de HEBB

 
 

PRINCIPE DE FONCTIONNEMENT du réseau de neurones

 

Le principe est celui d’un automate:

 

SORTIES = f (ENTRÉES et, des SORTIES précédentes)

 

Automate dont les entrées sont pondérées et la fonction de transfert adaptée

 

SORTIES = f(ENTRÉES pondérées et des SORTIES précédentes) 

Les pondérations sont données par le système

au fur et à mesure de l’apprentissage.

 

Principe  des réseaux multicouches

 

 

LOI de HEBB

 

La force des connexions synaptiques à l’entrée du neurone peut s’adapter, pour obtenir l’activité requise au niveau de la synapse de sortie.

 

 

Si deux cellules sont activées en même temps alors la force de la connexion augmente.

 

 FIGUE Bfigue A

HISTORIQUE 

 
1890 W. James       Introduit le concept de mémoire associative.
1942 Norbert Wiener       Boucle de rétroaction cybernétique.
1943 McCulloch et

Pitts

      Modèle formel de neurone biologique.
1949 Hebb       Explique le conditionnement chez l’animal par les propriétés des neurones eux-mêmes. Loi pouvant expliquer le phénomène d’apprentissage.
1957 Rosenblatt       Perceptron, premier neuro-ordinateur, première tentative de reproduire le cerveau de l’homme.
1960 B. Widrow       Développe le modèle Adaline à l’origine de l’algorithme de rétropropagation de gradient très utilisé aujourd’hui avec les Perceptrons multicouches.
1969 Minsky et

Papert

      Démontrent qu’une classe de problème ne peut pas être résolue par le perceptron. Ils donnent les limitations théoriques du perceptron et de la neuronique. Les financements se dirigent les systèmes experts.
1982 John Hopfield       On lui doit le renouveau d’intérêt pour les réseaux de neurones artificiels: perceptron multicouches.
1983 Boltzmann*       La Machine de Boltzmann contourne les limitations du perceptron.
1985         La rétro propagation de gradient apparaît. C’est un algorithme d’apprentissage adapté aux réseaux de neurones multicouches.
1986 Werbos puis Rumelhart,

Hinton et

Williams

      Algorithme d’apprentissage applicable au perceptron de type récursif (back propagation). La classe de problème de Minsky et Papert peut être résolue.
       

 

 

Le point en début 2015

 
 

Observation du retour en force des réseaux de neurones au NIPS de Montréal en décembre  2014.

 

À l’image du cerveau humain, plusieurs couches de neurones artificiels, reliées entre elles par des synapses ayant un poids plus ou moins important, sont entraînées par essai/erreur à réaliser une certaine tâche de prédiction. À la fin de l’apprentissage, les poids synaptiques sont réglés de manière optimale pour réussir la tâche en question. La force de ces méthodes est d’être capable d’apprendre par analogie sans que le modélisateur ait besoin d’émettre de règles a priori sur la relation entre données d’entrée et de sortie. La reconnaissance de l’écriture manuscrite en est un « cas d’école » classique : alors qu’il est très difficile d’émettre de règles précises sur la forme de telle ou telle lettre dans une image traduite en tableau de pixels, les réseaux de neurones sont quasi-infaillibles sur ce problème – Yseulys Costes

 

Défi: concilier la capacité d’apprentissage d’un système biologique avec la puissance de calculdes outils modernes.

La technologie neuronique a connu un succès précoce dès les années 1960.
Face à de grosses difficultés de réalisation, l’engouement a faibli.
Les, en 2014, voici de nouveau sur le devant de la scène sous le nom de Deep Learning.

 

Les idées neuves:

concentration les ressources d’apprentissages sur certains objets d’intérêt,

développement les réseaux de neurones multitâches capables de réutiliser la connaissance apprise et l’appliquer à des tâches similaires, et

mise au point d’une nouvelle méthode de traduction automatique de textes.

 

Le point en début 2016

 
 

Dans les années 1990, les réseaux de neurones furent boudés en raison de l’existence de nombreux blocages sur des points critiques, les minimums locaux.

Des travaux récents ont permis d’identifier et de contourner cette difficulté.

 

Fonctionnement

Les neurones artificiels sont des blocs de code informatiquequi reproduisent de manière simplifiée l’action des neurones biologiques. Chacun est doté de plusieurs entrées et d’une sortie. Les entrées reçoivent des informations provenant des sorties des neurones précédents (effet synapse).

La connexion entre deux neurones est caractérisée par un poids synaptique, un nombre qui qualifie la pertinence de la liaison, une sorte d’effet de mémoire.

Ce sont ces valeurs qui vont s’affiner avec l’apprentissage. Plus cette liaison sera impliquée dans l’indication de la bonne réponse et plus le poids va augmenter.

Après un long apprentissage, les poids se stabilisent et le réseau à atteint sa configuration opérationnelle; prêt à se confronter à des situations nouvelles.

 

Auteurs: Yoshua Bengio (né en 1964), directeur de l’Institut des algorithmes de Montréal et Yann LeCun, directeur du laboratoire d’intelligence artificielle de Facebook et leurs équipes.

 

Analogie

Imaginez que vous appreniez à faire du ski dans une montagne comportant de nombreux vallons. Vous apprenez bien et, le jour arrive où vous êtes lâché tout seul. Tout se passe bien, vous descendez. Puis, vous êtes bloqué. C’est effectivement un point bas, mais ce n’est pas la station d’arrivée. Vous êtes dans un minimum local et non dans le minimum global recherché.

Il vous faudra apprendre à chercher la sortie de cette cuvette …

 

 

Le blocage aux points critiques

Dans certains cas, les poids atteignent une limite qui correspond à un minimum local et non global; comme si l’algorithme s’était engagé dans une impasse. Les performances du réseau sont alors bien médiocres et ce phénomène explique le désamour des années 1990.

Les auteurs expliquent avoir trouvé la parade. Ils se focalisent sur les points d’impasse, les points critiques. Ce sont des points en « selle de cheval » qui finalement possèdent une sorte. Ils ont également constaté que ces points critiques sont de moins en moins nombreux dès que la quantité de neurones grandit considérablement. Ce que permet la technologie actuelle avec des centaines de millions de synapses.

 

     

Le domaine de la neuronique et de l’intelligence artificielle

Le NIPS (Neural Information Processing Systems) est une conférence scientifique en intelligence artificielle et en neurosciences computationnelles qui se tient chaque année à Vancouver, Canada.

Sujets d’études:

Réseaux de neurones et compréhension du fonctionnement du cerveau:

reconnaissance de la parole,

reconnaissance d’objets;

reconnaissance de visages;

interprétation des images du cerveau.

Systèmes d’apprentissage biologiques ou artificiels;

Intelligence artificielle; Déductions automatiques;

Science cognitive; Réponse de la machine au langage naturel;

Vision par ordinateur; Perception par la machine;

Anticipation des intentions humaines au cours du dialogue homme-machine;

Linguistique statistique; Technologie du langage (traduction automatique);

Traitement des « huge data » (déluge de données, encore plus que Big data);

Théorie de l’information; Association automatique de mots aux images pour leur classement et leur recherche;

Machine learning à partir de ces gros volumes de données. Face aux téraoctets, adaptation des algorithmes aux architectures distribuées;

Marketing viral: collecte d’informations sur les consommateurs et incitation à la propagation des messages marketing. Algorithme à haut potentiel de viralisation;

Méthode de mesure des performances des outils d’intelligence artificielle;

Implémentation de ces technologies au sein des robots.

 




Comprendre l’I.A

11082017

INTELL

Le schéma fonctionnelle de l’I.A est assez simple : Chaque unité a un rôle précis qu’elle accomplit et elle correspond avec l’ensemble des unités actives dans tout son ensemble. Le pouvoir décisionnelle n’appartient pas à une seule unité mais à l’ensemble. Il n’y a donc aucune hiérarchie car l’ensemble des constituantes bien que différentes les unes des autres, forme un tout unique qui agit de concerte sans défaillance. Lorsqu’un problème se pose à une unité, elle cherche en elle même la solution la mieux adapté, si elle ne la trouve pas elle transmet le problème aux autres unités afin que celle qui a les connaissances pour résoudre le problème lui communique la réponse. Ainsi les connaissances et l’intelligence n’est plus en un seul et unique même lieu mais elle est diffus.

Qu’est-ce qu’est l’intelligence ?

C’est la capacité à résoudre les problèmes, d’une part. Mais c’est aussi et avant tout la faculté d’utilisé les connaissances pour en crée de nouvelles. L’art fait partie des critères de l’intelligence alors que les mathématique et le langage n’en sont pas. En effet comment peut-on attribué une valeur au fait d’utilisé des connaissances ou de faire des calculs. N’importe qu’elle machine de base peut en faire autant. Par contre crée quelque chose de nouveau, d’inédit c’est totalement différent.

Lorsque le programmeur crée un algorithme afin que son programme puis lui donner des solutions, à partir du moment ou sa reste du calcul et que celui-ci suis un schéma logique on ne peut en aucun cas parlé d’intelligence même si apparemment la réponse ne figure pas dans le programme. Les « machines » ont de plus en plus la capacité d’apprendre, de stocker des nouveaux éléments afin de les utilisés ensuite. La encore ce n’est pas de l’intelligence mais de l’apprentissage.

Vouloir comparer l’I.A à l’intelligence Humaine revient à vouloir faire une comparaison entre une éponge de mer et une roche volcanique.

Suis une étude ressente pour comprendre l’I.A

7h15, Sam se réveille et se prépare pour une journée de travail ordinaire. Il prend sa douche et s’installe dans la cuisine pour prendre son petit déjeuner. Toi.Net2, sa servante-robot, lui sert un café chaud et une assiette de fruits. « Toi.Net, passe-moi le sucre s’il te plaît », demande Sam. La servante-robot prend le sucrier qui se trouve à l’autre bout de la table et le lui apporte. Pourtant, il y a une boîte de sucre dans le placard de la cuisine mais Toi.Net sait qu’il est beaucoup plus simple d’utiliser le sucrier. « Des nouvelles intéressantes ? », demande Sam. La servante-robot comprend qu’elle doit trouver l’actualité qui correspond aux centres d’intérêt de Sam. Elle commence par le football.

Toi.Net: « Monaco a battu Marseille 3-1 à domicile. C’est la première fois depuis douze ans que Monaco marque trois buts contre Marseille. Un coup du chapeau de Diego Suarez ».

Toi.Net : « L’élection de Miss France s’est déroulée au Palais des congrès. Miss Martinique est l’heureuse élue ».

Sam : « Ne m’embête plus avec ce type d’actualité, les élections de Miss ne m’intéressent pas ».

Toi.Net : « D’accord, je ne le ferai plus ».

Toi.Net : « Pour Paris, la météo prévoit du soleil dans la matinée et de fortes pluies à partir de 13 heures et toute l’après-midi ».

Toi.Net : « M. Lamaison, candidat à la présidence de la région sud-ouest, déclare que le taux de chômage a atteint les 3,2 millions ; son plus haut niveau depuis 2004 ».

Sam : « Peux-tu vérifier cette information ? J’ai l’impression que ce nombre était plus élevé au milieu des années 2010 ».

Deux secondes après, Toi.Net répond : « Vous avez raison, le chômage s’élevait à 3,4 millions en 2015, selon les statistiques de l’INSEE ».

À la fin du petit déjeuner, Sam ne se sent pas bien. Son bracelet connecté indique une pression artérielle anormale et Toi.Net reçoit la notification. « Où avez-vous mis vos comprimés ? » demande-t-elle à Sam. « Sur la table de chevet ou peut-être dans la salle de bain ». Toi.Net lui apporte la boîte de médicaments et Sam reprend des forces.

Toi.Net : « C’est l’heure d’aller au travail. Puisqu’il va probablement pleuvoir lorsque vous irez faire de la marche au parc après le déjeuner, je vous ai apporté vos bottines ».

Une voiture autonome attend devant la maison. Sam entre dans le véhicule qui lui annonce : « Ce matin, je ferai un détour par l’A-4 en raison d’un accident sur votre trajet habituel et d’un temps d’attente de quarante-cinq

minutes à cause d’un embouteillage ». Toi.Net est une servante-robot bien éduquée. Elle connaît beaucoup

de choses sur Sam, comprend ses demandes, se souvient de ses préférences, est capable de trouver des objets et de les utiliser à bon escient, se connecte à Internet et extrait des informations pertinentes, apprend

des situations nouvelles, etc. Cela a été rendu possible grâce aux immenses progrès réalisés dans le domaine de l’intelligence artificielle : le traitement et la compréhension de la parole (comprendre les demandes de Sam) ; la reconnaissance visuelle et la reconnaissance d’objets (localiser le sucrier sur la table) ; la planification automatisée (définir la série d’actions débouchant sur une situation donnée comme chercher une boîte de comprimés dans la salle de bain) ; la représentation des connaissances (pouvoir identifier un coup du chapeau comme une série de trois buts marqués par un même joueur au cours d’un même match de football) ; le raisonnement (choisir de prendre le sucrier présent sur la table plutôt que d’aller chercher la boîte de sucre dans le placard de la cuisine ou recourir aux prévisions météorologiques pour décider quelle paire de chaussures Sam devrait mettre) ; la fouille de données (extraire les informations pertinentes à partir du web, y compris vérifier les faits dans le cas de la déclaration politique) ; l’algorithme incrémental d’apprentissage automatique (lui permettant de se souvenir de ne plus mentionner les concours de Miss à l’avenir). La servante-robot adapte constamment son interaction avec Sam en dressant le profil de son propriétaire et en détectant ses émotions.

Inria, avec plus de cent-soixante équipes-projets réparties au sein de huit centres de recherche, est très actif sur toutes les facettes de l’IA. Le présent document expose ses points de vue sur les grandes tendances et les principaux défis de l’intelligence artificielle et décrit la manière dont ses équipes conduisent des recherches scientifiques, développent des logiciels et œuvrent pour le transfert technologique afin de relever ce défis.

2016, l’année de l’intelligence,artificielle (IA) ?

C’est ce qu’ont déclaré récemment plusieurs éminents scientifiques,de Microsoft. L’IA est devenue un sujet en vogue dans les médias et magazines,scientifiques en raison de nombreuses réalisations, dont beaucoup sont le fruit des progrès accomplis dans le domaine de l’apprentissage automatique. De grandes entreprises dont Google, Facebook, IBM, Microsoft mais aussi des constructeurs automobiles à l’instar de Toyota, Volvo et Renault, sont très actifs dans la recherche en IA et prévoient d’y investir davantage encore dans le futur. Plusieurs scientifiques spécialisés dans l’IA dirigent désormais les laboratoires de recherche de ces grandes entreprises et de nombreuses autres. La recherche en IA a permis de réaliser d’importants progrès dans la dernière décennie, et ce dans différents secteurs. Les avancées les plus connues sont celles réalisées dans l’apprentissage automatique, grâce notamment au développement d’architectures d’apprentissage profond, des réseaux de neurones convolutifs multicouche dont l’apprentissage s’opère à partir de gros volumes de données sur des architectures de calcul intensif. Parmi les réalisations de l’apprentissage automatique, il convient de citer la résolution de jeux Atari (Bricks, Space invaders, etc.) par Google DeepMind, utilisant les pixels images affichés à l’écran comme données d’entrée afin de décider quelle action adopter pour atteindre le plus haut score possible à la fin de la partie. Il convient également de mentionner le dernie résultat obtenu par la même équipe dans le jeu de Go, l’emportant sur le meilleur joueur humain en une série de cinq matchs, en recourant à une combinaison de recherche Monte Carlo arborescente d’apprentissage profond à partir de vrais matchs et d’apprentissage par renforcement en jouant contre son propre clone.

Les progrès accomplis en matière de robotique, de véhicules autonomes, de traitement de la parole et de compréhension du langage naturel sont tout aussi impressionnants.

Les débats sur l’IA

Les débats sur l’IA ont commencé au 20e siècle – cf. les lois de la robotique d’Isaac Asimov – mais s’intensifient aujourd’hui en raison des récentes avancées, décrites précédemment, dans le domaine.

Selon la théorie de la singularité technologique, une ère de domination des machines sur l’Homme verra le jour lorsque les systèmes d’intelligence artificielle deviendront super-intelligents :

« La singularité technologique est un événement hypothétique lié à l’avènement d’une véritable intelligence artificielle. Ainsi un ordinateur, un réseau informatique ou un robot seraient théoriquement capables d’une auto-amélioration

récursive (processus de perfectionnement auto-généré) ou de concevoir et fabriquer des ordinateurs ou robots plus intelligents. Des répétitions de ce cycle pourraient aboutir à un effet d’accélération – une explosion de l’intelligence

c’est-à-dire à des machines intelligentes capables de concevoir des générations successives de machines de plus en plus puissantes, créant une intelligence largement supérieure aux capacités intellectuelles humaines, d’où un risque de perte de contrôle. L’Homme ne pouvant appréhender les capacités d’une telle super-intelligence, la singularité technologique est le point au-delà duquel l’intelligence humaine ne pourrait ni prédire ni même imaginer les événements

Les défenseurs de la singularité technologique sont proches du mouvement transhumaniste qui vise à améliorer les capacités physiques et intellectuelles des humains grâce aux nouvelles technologies. La singularité correspondrait au moment où la nature des êtres humains subirait un changement fondamental, lequel serait perçu soit comme un événement souhaitable (par les transhumanistes), soit comme un danger pour l’humanité (par leurs opposants).

Le débat sur les dangers de l’IA a franchi un nouveau palier avec la récente polémique sur les armes autonomes et les robots tueurs, suscitée par une lettre ouverte publiée à l’ouverture de la conférence IJCAI en 20153. La lettre, qui demande l’interdiction des armes capables de fonctionner sans intervention humaine, a été signée par des milliers de personnes, dont Stephen Hawking, Elon Musk, Steve Wozniak et nombre de chercheurs de premier plan en IA ; on retrouve d’ailleurs parmi les signataires certains des chercheurs d’Inria ayant contribué à l’élaboration du présent document. Parmi les autres dangers et menaces ayant fait l’objet de débats au sein de la communauté, on peut citer : les conséquences financières sur les marchés boursiers du trading haute fréquence, lequel représente désormais la grande majorité des ordres passés – dans le trading haute fréquence, des logiciels soi-disant intelligents exécutent à grande vitesse des transactions financières, pouvant conduire à des crashs boursiers comme le Flash Crash de 2010 ; les conséquences de la fouille de données massives sur le respect de la vie privée, avec des systèmes de fouille capables de divulguer les caractéristiques personnelles des individus en établissant des liens entre leurs opérations en ligne ou leurs enregistrements dans des bases de données ; et bien entendu le chômage potentiel généré par le remplacement progressif de la main d’oeuvre par des machines.

Une ère de domination des machines sur l’Homme verra le jour lorsque

les systèmes d’IA deviendront super-intelligents

Plus nous développons l’intelligence artificielle, plus le risque est grand d’étendre uniquement certaines capacités intelligentes (par exemple optimisation et fouille par l’apprentissage) au détriment d’autres, peu susceptibles de générer un retour sur investissement immédiat ou de présenter un quelconque intérêt pour le créateur de l’agent (par exemple : morale, respect, éthique, etc.). Utilisée à grande échelle, l’intelligence artificielle peut comporter de nombreux risques et constituer quantité de défis pour les humains, en particulier si les intelligences artificielles ne sont pas conçues et encadrées de façon à respecter et protéger les humains. Si, par exemple, l’optimisation et les performances sont le seul objectif de leur intelligence, cela peut conduire à des catastrophes à grande échelle où les utilisateurs sont instrumentalisés, abusés, manipulés, etc. par des agents artificiels inépuisables et sans vergogne. La recherche en IA doit être globale et inclure tout ce qui rend les comportements intelligents, pas uniquement les « aspects les plus raisonnables ».

Les défis de l’IA et les contributions d’Inria

L’IA est un vaste domaine ; toute tentative de le structurer en sous-domaines peut donner lieu à débat. Toutes les typologies se valant, il a donc été décidé d’opter pour la hiérarchie de mots-clés proposée récemment par la communauté des responsables d’équipes-projets Inria, afin de mieux identifier leurs contributions aux sciences du numérique en général. Dans cette hiérarchie, l’intelligence artificielle est un mot-clé de premier niveau avec sept sous-domaines, certains spécifiques, d’autres renvoyant à différentes sections de la hiérarchie

CONNAISSANCES

_Bases de connaissances

_Extraction & nettoyage de connaissances

_Inférence

_Web sémantique

_Ontologies

APPRENTISSAGE AUTOMATIQUE

_Apprentissage supervisé

_Apprentissage (partiellement) non-supervisé

_Apprentissage séquentiel et par renforcement

_Optimisation pour l’apprentissage

_Méthodes bayésiennes

_Réseaux de neurones ou neuronaux

_Méthodes à noyau

_Apprentissage profond

_Fouille de données

_Analyse de données massives

TRAITEMENT DU LANGAGE NATUREL

TRAITEMENT DES SIGNAUX

_Parole

_Vision

Reconnaissance d’objets

Reconnaissance d’activités

Recherche dans des banques d’images et de vidéos

Reconstruction 3D et spatio-temporelle

Suivi d’objets et analyse des mouvements

Localisation d’objets

Asservissement visuel

ROBOTIQUE (y compris les véhicules autonomes)

_Conception

_Perception

_Décision

_Action

_ Interactions avec les robots (environnement/humains/robots)

_Flottes de robots

_Apprentissage des robots

_Cognition pour la robotique et les systèmes

NEUROSCIENCES, SCIENCES COGNITIVES

_ Compréhension et stimulation du cerveau et du système

nerveux

_Sciences cognitives

ALGORITHMIQUE DE L’IA

_Programmation logique et ASP

_Déduction, preuve

_Théories SAT

_Raisonnement causal, temporel, incertain

_Programmation par contraintes

_Recherche heuristique

_Planification et ordonnancement

AIDE À LA DÉCISION

Les contributions d’Inria sont présentées ci-après par équipe-projet. Inria s’appuie sur un modèle de recherche original qui repose sur une entité de base : l’équipe-projet. Les équipes-projets réunissent, autour d’une personnalité scientifique, un groupe de chercheurs, d’enseignants chercheurs, de doctorants et d’ingénieurs. Elles ont toutes un objectif commun : relever un défi scientifique et technologique dans l’un des domaines de recherche prioritaires de l’institut définis dans le plan stratégique. L’équipe-projet a une durée maximale de vie de douze ans et une durée moyenne de huit ans. (Les noms des équipes-projets seront

écrits en CAPITALES ORANGE afin de les distinguer des autres noms.) PLAN STRATÉGIQUE « OBJECTIF INRIA 2020″

Les défis génériques de l’intelligence artificielle

IA située

Les systèmes d’IA doivent opérer dans le monde réel et interagir avec leur environnement : recevoir des données de capteurs, déterminer le contexte dans lequel ils opèrent, agir sur le monde réel ; ils doivent

par ailleurs se comporter de façon autonome et conserver leur intégrité dans diverses conditions. Pour répondre à ces exigences, les systèmes d’IA doivent gérer des données non structurées ainsi que des données sémantiques.Processus d’apprentissage avec intervention humaine

Les systèmes d’IA ont vocation à interagir avec des utilisateurs humains : ils doivent donc être capables d’expliquer leur comportement, de justifier d’une certaine manière les décisions qu’ils prennent afin que les utilisateurs humains puissent comprendre leurs actions et leurs motivations. Si cette compréhension n’est pas au rendez-vous, les utilisateurs humains n’auront qu’une confiance limitée, voire inexistante, dans

les systèmes, qui ne seront donc pas acceptés. En outre, les systèmes d’IA ont besoin d’une certaine flexibilité et de capacités d’adaptation afin de pouvoir gérer différents utilisateurs et différentes attentes. Il est important de développer des mécanismes d’interaction qui favorisent une bonne communication et interopérabilité entre les humains et les systèmes d’IA. Certaines équipes d’Inria travaillent sur la collaboration entre l’IA et l’interface Homme-machine car il existe de nombreuses attentes dans ce domaine.Ouverture à d’autres disciplines

Une IA sera souvent intégrée dans un système élargi composé de nombreux éléments. L’ouverture signifie donc que des scientifiques et développeurs en IA devront collaborer avec des spécialistes d’autres

disciplines des sciences informatiques (par exemple la modélisation, la vérification et la validation, les réseaux, la visualisation, l’interaction Homme-machine, etc.) composant le système élargi, ainsi qu’avec des.scientifiques d’autres champs de compétences contribuant à l’IA comme les psychologues, les biologistes (en biomimétique, notamment), les mathématiciens, etc.

Le deuxième aspect à prendre en compte est l’impact des systèmes de l’IA sur plusieurs facettes de notre vie, de notre économie et de notre société et donc la nécessaire collaboration avec des spécialistes d’autres domaines. Il serait trop long de tous les mentionner mais à titre d’exemples on peut citer les économistes, les environnementalistes, les juristes. Ultitâches.

De nombreux systèmes d’IA excellent dans un domaine spécifique, mais se révèlent incompétents en-dehors de celui-ci. Pourtant, les systèmes évoluant dans un environnement réel, tels que les robots, doivent être capables de réaliser plusieurs actions en parallèle, comme mémoriser des faits, assimiler de nouveaux concepts, agir sur le monde réel et interagir avec les humains.

Les défis génériques dans l’apprentissage automatique

Les algorithmes et systèmes d’apprentissage automatique ont connu d’importantes avancées ces dernières années grâce à la disponibilité de grands volumes de données et du calcul intensif, sans oublier les avancées intéressantes en optimisation.

Les défis dans ce domaine sont nombreux : apprendre à partir de données hétérogènes, disponibles sur une multiplicité de canaux ; gérer des informations incertaines ; identifier et traiter des événements rares au-delà des approches purement statistiques ; travailler en combinant des sources de connaissances et des sources de données ; intégrer des modèles et des ontologies dans le processus d’apprentissage ; et enfin obtenir de bonnes performances d’apprentissage avec peu de données, lorsque des sources de données massives ne sont pas disponibles.présentations continues

Les représentations continues permettent à l’algorithme d’apprentissage automatique d’approcher des fonctions complexes, tandis que les représentations symboliques sont utilisées pour apprendre des règles

et des modèles symboliques. Les avancées récentes les plus significatives concernent les représentations continues. Celles-ci laissent néanmoins de côté le raisonnement alors qu’il serait souhaitable de l’intégrer

dans la représentation continue pour pouvoir faire des inférences sur les données numériques. Par ailleurs, afin d’exploiter la puissance de l’apprentissage profond, il peut s’avérer utile de définir des représentations

continues de données symboliques, comme cela a été fait par exemple ;pour le texte avec word2vec et text2vec.Apprentissage continu et sans fin

On attend de certains systèmes d’IA qu’ils soient résilients, c’est-à-dire capables de fonctionner 24/7 sans interruption. Des avancées intéressantes ont été réalisées dans les systèmes d’apprentissage « tout au long

de la vie » qui engrangeront continuellement de nouvelles connaissances. La difficulté réside ici dans la capacité des systèmes d’IA à opérer en ligne en temps réel, tout en étant capables de remettre en question des croyances antérieures, et ce de façon autonome. L’auto-amorçage constitue une option pour ces systèmes car il permet d’utiliser les connaissances élémentaires acquises en début d’exploitation pour orienter les futures tâches d’apprentissage, comme dans le système NELL

La protection de la vie privée est sans doute la contrainte la plus importante à prendre en compte. Les chercheurs spécialisés dans l’apprentissage automatique ont reconnu récemment la nécessité de protéger la vie privée tout en poursuivant l’apprentissage à partir de données personnelles. Une théorie de l’apprentissage automatique respectueux de la vie privée est actuellement développée par des chercheurs tels que Michael Jordan

Architectures de calcul

Les systèmes d’apprentissage automatique modernes nécessitent du calcul intensif et un stockage de données efficace afin de s’adapter à la taille des données et aux dimensions des problèmes. Des algorithmes seront exécutés sur des GPU et d’autres architectures puissantes ; données et processus doivent être distribués sur plusieurs processeurs. De nouvelles recherches doivent s’attacher à améliorer les algorithmes d’apprentissage automatique et les formulations des problèmes afin de tirer le meilleur parti de ces architectures de calcul.Apprentissage non-supervisé

Les résultats les plus remarquables obtenus dans le domaine de l’apprentissage automatique sont basés sur l’apprentissage supervisé, c’est-à-dire l’apprentissage à partir d’exemples dans lesquels le résultat attendu est fourni avec les données d’entrée. Cela implique d’étiqueter les données avec les résultats attendus correspondants, un processus qui nécessite des données à grande échelle est un parfait exemple de la manière dont les grandes entreprises mobilisent des ressources humaines pour annoter des données. Mais la vaste majorité des données existe sans résultat attendu, c’est-à-dire sans annotation désirée ou nom de classe. Il convient donc de développer des algorithmes d’apprentissage non-supervisé afin de gérer cette énorme quantité de données non étiquetées. Dans certains cas, un apport minime de supervision humaine peut être utilisé pour guider l’algorithme non-supervisé.

Processus d’apprentissage avec intervention humaine, explications

Les défis portent sur la mise en place d’une collaboration naturelle entre les algorithmes d’apprentissage automatique et les utilisateurs, afin d’améliorer le processus d’apprentissage. Pour ce faire, les systèmes d’apprentissage automatique doivent être en mesure de montrer leur état sous une forme compréhensible pour l’Homme. De plus, l’utilisateur humain doit pouvoir obtenir des explications de la part du système sur n’importe quel résultat obtenu. Ces explications seraient fournies au cours de l’apprentissage et pourraient être liées à des données d’entrée ou à des représentations intermédiaires. Elles pourraient également indiquer des niveaux de confiance, selon le cas.

L’apprentissage par transfert est utile lorsque peu de données sont disponibles pour l’apprentissage d’une tâche. Il consiste à utiliser pour une nouvelle tâche les connaissances ayant été acquises à partir d’une autre tâche et pour laquelle un plus grand nombre de données est disponible. Il s’agit d’une idée plutôt ancienne (1993), dont les résultats restent modestes car elle est difficile à mettre en oeuvre. En effet, elle implique de pouvoir extraire les connaissances que le système a acquises en premier lieu, mais il n’existe aucune solution générale à ce problème (de

quelle manière, comment les réutiliser ? …). Une autre approche de l’apprentissage par transfert est le « shaping ». Il s’agit d’apprendre une tâche simple, puis de la complexifier progressivement, jusqu’à atteindre la tâche cible. Il existe quelques exemples de cette procédure dans la littérature, mais aucune théorie générale.

Apprentissage automatique et aide à la décision : retours

d’informations, modèles de causalité, représentations

Il existe une « exubérance irrationnelle » sur les mégadonnées (ou Big data). Cette exubérance et le niveau élevé des attentes de certains utilisateurs (entrepreneurs, journalistes, politiques) pourraient avoir un effet

contre-productif et exposer la communauté scientifique à un hiver des mégadonnées, semblable à l’hiver de l’IA (longue période d’espoirs décus à partie des années 1980, dont l’IA n’est sortie qu’au début de ce siècle).

TAO

I. Programmes informatiques sous-spécifiés : la programmation par feedback

Les algorithmes comprennent des fonctionnalités de plus en plus complexes, et l’utilisateur est de moins en moins disposé à lire le manuel d’utilisation. Pour réaliser des logiciels (adaptés à un environnement ouvert et à des utilisateurs dont les préférences évoluent), la programmation par feedback investiguée par TAO s’appuie sur l’interaction avec l’utilisateur : itérativement, l’algorithme propose un nouveau comportement et l’utilisateur indique si ce comportement représente ou non une,amélioration (par rapport au meilleur comportement antérieur). Cette approche repose sur deux piliers fondamentaux :

- l’apprentissage automatique, pour modéliser les préférences de l’utili-sateur en fonction de ses retours ;

- l’optimisation, pour choisir les comportements proposés les plus informatifs et minimiser le temps requis pour atteindre un comportement satisfaisant.

L’une des questions ouvertes concerne la communication avec l’utilisateur, permettant à l’humain dans la boucle de donner du sens au processus d’apprentissage et d’interaction. Les approches envisagées se fondent sur la visualisation d’une part, et sur la définition de tâches ou d’environnements graduellement plus complexes d’autre part.

II. Décision optimale et apprentissage de modèles causaux

Parmi les objectifs de l’exploitation des mégadonnées figure la décision optimale. Or, les modèles permettant de prendre des décisions appropriées sont nécessairement des modèles causaux (par opposition aux modèles prédictifs, qui peuvent s’appuyer sur des corrélations). Par exemple, les notes des élèves sont corrélées à la présence plus ou moins importante de livres à leur domicile. Cependant, envoyer des livres dans chaque foyer n’améliorera pas les notes des élèves, toutes choses égales par ailleurs. La recherche de modèles causaux conduit à revisiter les critères de l’apprentissage statistique. Une approche prometteuse consiste à apprendre un indice de causalité, en partant de l’ensemble des problèmes pour lesquels la causalité est connue (par exemple, l’altitude d’une ville « cause » sa température moyenne).

III. Changements de représentation / apprentissage profond

Les avancées significatives apportées par l’apprentissage de réseaux neuronaux profonds (par exemple dans les domaines de la vision par ordinateur ou du traitement automatique du langage naturel) sont liées à leur capacité à apprendre automatiquement une représentation efficace de domaines complexes à partir d’une grande quantité de données (ou d’interactions intensives avec l’environnement dans le contexte de l’apprentissage par renforcement).

Parmi les perspectives de recherche figurent :

la recherche d’approches d’optimisation non convexe efficaces d’un point de vue mathématique (e.g. en tenant compte de la géométrie de l’espace) et informatique (e.g. du point de vue de la complexité algorithmique en temps et en mémoire, tirant parti des architectures spécialisées) ;

l’extension de ces méthodes au cas de petites données, lorsqu’on dispose de connaissances a priori sur le domaine d’application (permettant par exemple l’augmentation des données par application d’opérateurs d’invariance) ;

l’exploitation de sources de données complémentaires (par exemple concernant des données réelles et des données simulées) pour construire des représentations à la fois précises et robustes.

 







Maconneriepeillat |
Intersyndicaleadapei79 |
rucher du Bout de Cesnes |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | Vracdesouvenirs
| Futureofwork
| Marseille Poubelle la Vie