MÉTHODES D'OPTIMISATION DANS LA CRÉATION ARTISTIQUE

Publié le par Michel Bret

MÉTHODES D'OPTIMISATION DANS LA CRÉATION ARTISTIQUE
Michel BRET professeur en "Art et Technologies de l'Image"
Université Paris 8 (1997)
Article refusé par la revue Champ Visuel en 1997

1 Résumé

         La notion de progrès, légitime en science, est-elle signifiante en art ? Et comment peut-on parler d'optimiser la création artistique ?
         Cet article se propose de dépasser l'opposition science-art en la revisitant à la lumière des récentes avancées dans la connaissance du cerveau et des machines.
         Il sera question d'ordinateurs et de création artistique, de réseaux neuronaux et d'algorithmes génétiques.
        
         Is the idea of improvement, legitimate in science, full of mean in art ? And how can we speak of optimum about the artistic creation ?
         This paper proposes to go beyond the opposition science-art with the progressive ideas on the subject of brain and computers.
         We will speak about computers and artistic creation, neural networks and genetic algorithms.

2 Art et technique

2-1 La problématique art et technique

         Art et techique sont deux faces d'une même médaille (comme l'atteste le double statut utilitaire et culturel de l'outil) qu'on ne saurait dissocier sans rennoncer à expliquer leur histoire. Celle-ci a connue des périodes de coexistence, comme la Renaissance (avec la perspective mathématique et l'anatomie scientifique), puis des phases plus conflictuelles (comme l'époque romantique), avant de se résoudre de nouveau avec les cinéticiens [Popper 1980] pour, finalement, exploser avec les nouvelles technologies [Popper 1993].
         Si la science et la technique permettent bien de connaître, et donc de maîtriser, la réalite, elles sont impuissantes à définir celle-ci en dehors d'elles-mêmes. L'art non plus, même lorsqu'il "représente" la réalité, ne dit rien sur celle-ci en dehors du regard qu'il porte sur elle. La question du "réel" est aussi mal posée par le positivisme (pour lequel la réalité préexiste à son analyse) que par l'idéalisme (pour lequel la réalité est le produit du sujet pensant), la vérité est à chercher dans un dépassement de cette opposition: Par exemple la physique moderne nous apprend que toute observation modifie l'observé et donc que la connaissance du réel est inséparable du regard que le sujet porte sur lui. Dans un autre domaine Panofky [Panofsky 1975] a montré que chaque époque construit son propre espace et que la perspective inventée par le quatrocento italien est une forme symbolique de cette culture. Plus près de nous, la physique de la relativité générale a du construire une géometrie non euclidienne pour expliquer l'univers, et peut-être les expériences des cubistes ne sont-elles pas très eloignées de ces découvertes: Le début de ce siècle aura vu l'émergence d'une nouvelle conception, et donc d'une nouvelle perception, de l'espace.
         Pas plus la science que l'art ne peuvent donner une explication totale du monde, tout au plus en proposent-ils une interprétation; qu'on appelle celle-ci "représentation" ou "modélisation", elle n'est valable que pour une culture donnée et à une époque donnée. Leurs rapports cessent donc d'être conflictuels dès lors que l'on admet la relativité de leur portée. Cet article développe l'idée que certaines avancées scientifiques peuvent faire évoluer la création artistique sans que celle-ci perde pour autant son âme.

2-2 Ordinateur et créativité

         L'ordinateur est l'instrument par excellence de toutes les simulations. Historiquement développé par les scientifiques pour tester des modèles physiques de la réalité, il a trouvé de nombreuses applications dans la modélisation et la prévision des phénomènes naturels.
         Mais limiter la création aux seuls modèles réalistes revient à enfermer l'art dans une "mimésis", or l'oeuvre n'est jamais le simple reflet ni d'un déterminisme sociologique ni d'une réalité extérieure.
         D'autre part l'utilisation des nouvelles technologies dans le domaine de la création artistique introduit de nouvelles manières de penser et de nouvelles pratiques en rupture avec les méthodes traditionnelles:
         La nature numérique du support peut remettre en cause non seulement les techniques de fabrication, mais encore celles de transmission, des images. Si cette remise en cause peut être vécue comme une évolution, ou une adaptation nécéssaire, il n'en est pas de même des méthodes de conception:
         La crétion artistique est traditionnellement liée au geste, à l'observation, à l'intuition. Avec l'ordinateur, rien de tel: Les gestes concernent la commande d'un automate, l'intuition est remplacée par le recours à un texte (le programme), l'observation de la réalité fait place à la construction de modèles abstraits. Certains y verront la mort de l'art, d'autres une réinvention. Sans nier les changements radicaux apportés par la synthèse, constatons cependant qu'ils s'inscrivent dans une certaine continuité: La première image de synthèse n'a-t-elle pas été faite par Brunelleschi, au XVeme siecle, lorsqu'il automatisait la mise en perspective ? Synthèse sans ordinateur, certes, mais construction mathématique quand même d'un espace virtuel. Les premières oeuvres "interactives" n'ont-elles pas été créées par les cinéticiens ?
         Certains critiques d'art et certains plasticiens émettent des réserves quand à la qualité esthétique des oeuvres produites à l'aide de machines: Bien qu'en décalage radical avec l'immense activité menée dans ce domaine par de jeunes artistes de plus en plus nombreux (voir en particulier des manifestations comme "Cybermonde" à Montreal Canada, ou "Anima Mundi" a Rio de Janeiro au Brésil ou encore "Imagina" à Monte-Carlo Monaco), leurs critiques pointent le fait que la production pléthorique d'oeuvres médiocres masque l'émergence d'un style nouveau. Mais n'en a-il pas toujours été ainsi, les grands courants artistiques ayant rarement été reconnus à leur naissance ?
         Cependant des questions pertinentes restent posées: La machine, par son automatisme, ne va-t-elle pas priver l'artiste du contrôle de sa création ? Qu'adviendra-t-il de la notion d'oeuvre lorsque des informations numériques (valant pour du texte, de la musique ou des images) circuleront de façon anonyme et libre sur un réseau mondial ?
         Les détracteurs des "nouvelles images" sous-estiment en fait leur adversaire: Utilisé comme simple outil, l'ordinateur ne différe en rien des outils traditionnels, mais il est beaucoup plus que cela: C'est ce que j'appelerai un "méta outil", c'est à dire un outil servant à fabriquer des outils; et même plus, cette machine de simulation est capable de simuler tout, y compris ce qu'elle n'est pas. C'est ainsi que les nouvelles machines sont conçues, sous forme de modèles, programmées, puis "imprimées" lorsque ces modèles donnent satisfaction.
         Mais on risque de perdre beaucoup plus qu'un simple contrôle si ces machines deviennent "intelligentes". Nous répugnons toujours à abandonner ce que nous considerons comme étant la nature même de notre humanité, mais en même temps nous avons toujours gagné à nous remettre en cause:
         Avec Galilé nous avons perdu notre position centrale dans l'Univers et avons par la même occasion acquis une meilleure connaissance de celui-ci. Avec Darwin nous avons perdu notre origine divine mais gagné la compréhension du vivant. Avec Freud nous avons perdu un certain libre arbitre pour découvrir l'inconscient. Nous perdrons bientot l'exclusivité de l'intelligence, mais sous la forme d'une extension de celle-ci, d'une hybridation avec la machine, d'une véritable mutation, et notre capacité à nous adapter sera une fois de plus la preuve de notre superiorité.

3 Le détour par le langage

3-1 Symbolique et fonctionnalité

         Le langage, d'abord symbolique, a aussi une dimension fonctionnelle: En agissant, ou en voulant agir, sur le monde (magie), ou sur les autres (communication, politique). Avec l'ordinateur il devient opérationnel (le programme "dit" au robot industriel ce qu'il doit faire, des algorithmes "démontrent" des théorèmes), le "dire" et le "faire" ont alors un rapport de dépendance, le langage n'exprime plus seulement, mais il agit, et inversement une machine peut s'adresser à nous, même si ce n'est pas véritablement un être parlant.
         Avec les "Réalités Virtuelles" une nouvelle perception est née: Celle du virtuel. Le geste n'agit plus seulement sur les choses mais encore sur des représentations, dont nous sentons en retour la présence physique. Réalité et symbolique entament alors un dialogue inattendu.
         Ainsi le peintre, lorsqu'il remplace son "coup de pinceau" par une trouvaille algorithmique, étend son geste au virtuel: Sa parole devient agissante, créatrice. En ce sens l'ordinateur, et singulièrement l'activité de programmation, en actualisant la fonctionnalité du langage, redonne à la parole et à l'écrit un rôle fondateur que notre époque, entièrement vouée à l'image, semblait avoir oublié

3-2 Un progrès vers le réalisme ?

         Giotto est considéré comme le 1er peintre de la modernité, et certains y ont vu l'éveil du réalisme qui devait se poursuivre à la Renaissance et apparaître comme une progression constante des techniques d'imitation du monde visible. L'art moderne n'est plus alors que "décadent", et la synthèse réaliste 3D serait un renouveau, une promesse d'avenir. Mais une telle notion de progrès est contredite par toutes les analyses qu'ont fait de l'histoire de l'art des auteurs comme Frankastel [Francastel 1951] ou Panofsky [Panofsky 1975]. On peut tout au plus parler d'émergence de styles, de représentations du monde valables pour une époque donnée, on peut voir des influences, des filiations, mais en aucun cas une marche en avant vers une quelconque perfection.

4 État des lieux

         Les artistes disposent, aujourd'hui, d'un ensemble de machines et de programmes sensés les aider à créer. De par son origine l'ordinateur semble voué à simuler le réel, c'est du moins ce qu'un certain nombre de constructeurs et de concepteurs prétendent. À travers une analyse des outils mis à la disposition des artistes, je tenterai de montrer qu'il s'agit là d'une régression, mais que de nouvelles voies s'ouvrent qui vont révolutionner le rapport des créateurs aux machines.

4-1 Les programmes de synthèse du commerce

         Ils supposent une modélisation géométrique d'objets dans un espace euclidien à 3 dimensions, ce qui implique d'abord un monde d'objets à représenter, ensuite une structure bien définie de ce monde, préexistante à sa représentation.
         Ils utilisent ensuite la projection conique (de centre un oeil unique et ponctuel) de cet espace sur un plan, faisant de la perspective linéaire la seule et unique méthode de visualisation.
         Enfin ils éclairent la "scène" par des "lampes" et modélisent la lumière par les lois de l'optique géométrique, les rayons étant nécéssairement rectilignes.
         Le style imposé est ainsi celui du réalisme photographique. Sans contester la validité de ces options, on peut cependant regretter qu'elles aient été "cablées", les élevant ainsi au niveau de vérités universelles, alors qu'elles ne sont qu'une possibilité parmi bien d'autres.

4-2 Critiques

         N'oublions pas que la géometrie cartésienne et l'optique physique ne sont que des modèles, valables sous certaines conditions et à une époque donnée, aucun scientifique ne songerait à les ériger en vérités universelles. Que ces modèles soient les plus simples est à la rigueur un argument pour les concepteurs de programmes, mais il ne faudrait pas qu'ils briment l'imagination de l'artiste qui devrait pouvoir construire son espace à mesure qu'il le représente.
         D'autre part un monde d'objet exclut à priori le vivant et conduit à représenter les êtres animés par des robots de la première génération.
         Quand à la perspective conique, faut-il rappeler qu'elle date du XV ème siècle et qu'elle a donné naissance à la géométrie projective dont elle n'est plus aujourd'hui qu'une application mineure. Des espaces courbes, aux propriétés insolites et merveilleuses, sont ainsi rendus inaccessibles par ce seul recours à une projection particulière.
         Et que dire des magnifiques mondes éclairés par une lumière relativiste dont les rayons seraient courbés par les masses, sinon qu'ils sont eux aussi rendus inacessibles par cette véritable "dictature de la droite" que constitue le recours systématique à l'algorithme du "lancer de rayons".
         Ce retour à un réalisme trivial sera sans doute considéré comme l'une des plus grandes régressions esthétique de notre siecle.

4-3 Les programmes d'animation

         La méthode d'animation la plus populaire est certainement celle dite des "dessins clés", inventée par Walt Disney voici plus d'un demi siecle. La cinématique, ou étude des mouvements indépendamment de leurs causes, avec ses trajectoires et ses lois de mouvement, figure en bonne place dans tous les systèmes d'animation. Une des retombées de la robotique a produit la "cinématique inverse", ou définition d'un mouvement par son but, qui facilite grandement la tâche de l'animateur. Enfin des modèles de la dynamique permettent de simuler les lois de la mécanique et d'animer, avec beaucoup de réalisme, des corps pesants, déformables, soumis à des forces et à des contraintes. Du dessin animé traditionnel aux simulations des modèles physiques, l'animation par ordinateur ne semble pas avoir pris son autonomie par rapport aux savoirs anciens.

4-4 Critiques

         Ce qui fait la force du dessin animé traditionnel, c'est peut-être cette très grande liberté qu'il prend par rapport au réel qui n'est d'ailleurs pas celui des choses, mais celui des situations.
         De toute façon, pour rendre l'"âme" de la vie (ce que signifie très exectement le terme "animation"), il faut mettre en scène autre chose que des objets, fussent-ils "drôles".
         Les "bases de données" chères aux infographistes, ne sont que de la matière inerte, qu'ils sont obligés de traiter manuellement et laborieusement en n'utilisant que très peu la puissance des machines.
         En programmation traditionnelle, le "code", qui représente la "pensée", et les "datas", qui représentent les objets, sont séparés, or, dans un être vivant, il n'en est pas ainsi. D'ou l'idée de construire des structures de données qui intégreraient du code: C'est ce que l'on appelle les "langages orientés objet" (ou L.O.O.), ils permettent de définir des "acteurs", qui sont bien des objets de synthèse, mais munis d'un "comportement", c'est à dire qu'ils sont capables de réagir, de façon non déterministe, à des situations données. L'un des intérêts de cette méthode, connue sous le nom d'"animation comportementale", réside dans le fait qu'un très grand nombre d'individus, munis du même comportement, constituent une population dont le devenir résulte des interactions de ses membres entre eux et avec l'environnement, sans qu'il soit nécéssaire de les définir. Ce qui permet de gérer très facilement des bancs de poissons, des vols d'oiseaux, des foules, et tous les phénomènes mettant en jeu un grand nombre d'interactions complexes qu'il serait impossible d'étudier de façon exhaustive.
         Mais cette méthode, qui fait passer l'animateur du statut de marionnettiste à celui de metteur en scène, ne se trouve, du moins dans sa forme la plus générale, dans aucun logiciel du commerce.
        
         La démarche du créateur ne se formalise pas, du moins pas en terme d'algorithme. Et ceci est vrai de l'artiste dont l'inspiration ne se laisse pas facilement traduire en chiffres, comme du mathématicien qui "découvre" un théorème bien avant que d'en avoir fait la démonstration, celle-ci n'intervenant qu'à titre de justification ou de validation. En quoi l'ordinateur peut-il alors intervenir dans le processus de création ?
         Audelà d'une utilisation archaïque des machines se limitant à simuler les techniques traditionnelles (réalisme imitant la photographie, "dessins clés" et "boîtes déformantes" imitant le dessin animé), le problème de la création par ordinateur est beaucoup plus profond puisque c'est le principe même de la démarche algorithmique qui est mis en cause.

5 Algorithmes et stratégies du vivant

5-1 Algorithmie traditionnelle

         Jusqu'à aujourd'hui, les machines ne pouvaient résoudre que les problèmes dont on connaissait une solution. Il s'agissait , à partir d'une analyse de ce problème, de construire un algorithme donnant une méthode de résolution, puis d'écrire un programme la traduisant dans un langage compréhensible par la machine, et enfin de faire "tourner" ce programme. La machine proposait alors un résultat.
         Mais l'on sait bien que les vrais problèmes sont ceux dont on ne connait pas la solution, et même plus, les vraies questions sont celles qui sont mal posées. L'enfant (ou l'adulte) qui apprend ne sait bien évidemment pas ce qu'il apprend et les startégies du vivant pour s'adapter sont tout sauf une démonstration. À plus forte raison en ce qui concerne la création artistique, la méthode algorithmique semble de peu d'utilité
         Les méthodes classiques d'optimisation fournissent une illustration de cette question, elles se divisent en 3 catégories [Goldberg 1991]:
         1) Numériques: Elles cherchent à atteindre un extremum local d'une fonction en se basant sur les variations de son gradient, la supposant dérivable, ce qui n'est pas le cas de la plupart des fonctions "intéressantes" qui ne sont bien souvent même pas continues.
         2) Énumératives: Par une recherche exhaustive sur tous les points, mais une telle méthode n'est praticable que pour des ensembles de définition réduite.
         3) Enfin aléatoires: L'examen systématique est remplacé par un tirage aléatoire, mais cette méthode n'est guère plus efficace que la précédente.
         Au lieu de vouloir atteindre à toute force un optimum, pourquoi ne pas seulement chercher à s'en rapprocher en n'exigeant aucune connaissance à priori sur le problème étudié ? C'est précisément la stratégie du vivant qui cherche à s'adapter à une situation en se modifiant de façon tout à fait pragmatique.
         Nous distingueront deux approches: Celles proposée par les "réseaux neuronaux" et celle connue sous le non d'"algorithmes génétiques":

5-2 Les réseaux neuronaux

         Un neurone artificiel simule le neurone biologique. Au lieu de construire une circuiterie figée (ce que sont les ordinateurs classiques) qui ne fournira jamais plus que ce que l'on y a mis au départ, on conçoit, sur le modèle du cerveau, un réseau de cellules interconnectées de façon modulable et souple. Ceci est réalisé pratiquement en affectant à ces liaisons un "poids" contrôlant la quantité d'information circulant sur une voie donnée (par exemple un poids nul coupe la connection), et en permettant au système de se modifier lui-même afin d'améliorer ses réponses. C'est le principe du "perceptron" qui peut, entre autre, apprendre à reconnaître un alphabet ou un vocabulaire de formes.
         Dans un réseau multicouche dont l'information est astreinte à progresser depuis la couche d'entrée jusqu'a la couche de sortie en passant par les couches "cachées", on réalise un "apprentissage" en présentant au système des couples (entrée,sortie souhaitée), l'erreur commise (différence entre la sortie trouvée et la sortie souhaitée) est utilisée (par une methode dite de la "rétropropagation" [Bourret 1991]) pour corriger les poids des couches inférieures afin de minimiser cette erreur.
         On a montré qu'un tel réseau saura alors résoudre toute une classe de problèmes analogues à celui ayant servi à l'apprentissage.
         Un autre aspect des réseaux neuronaux est leur capacité à simuler la mémoire humaine: La mémoire n'est pas une inscription d'informations amorphes (comme elle l'est dans les ordinateurs classiques) mais a été définie par les psychologues comme un "réseau d'association".
         Les "mémoires associatives linéaires" sont, pour simplifier, une généralisation du perceptron [Abdi 1994], en ce sens qu'elles associent une sortie spécifique à une entrée. Les "mémoires auto associatives", qui ne comportent qu'une seule couche de cellules, permettent de retrouver une information lorsqu'on n'en donne qu'une partie (possiblement bruitée) Les réseaux de Hopfield [Hopfield 1982] modélisent ce concept. Une généralisation de ces réseaux a conduit aux "machines de Boltzmann" qui utilisent une activation probaliste des cellules, évitant ainsi un blocage dans un minimum local. A "température" élevée le réseau pourra "rebondir" dans un autre état et éviter ainsi les puits d'énergie.
        
         Les réseaux neuronaux, en simulant le fonctionnement du cerveau (sans cependant chercher à le copier), permettent de résoudre des problèmes par les mêmes méthodes que le vivant: C'est à dire non pas en planifiant la liste des instructions à executer pour arriver au résultat (algorithme) mais en définissant un comportement adaptatif modifiant l'organisme lui-même qui trouve ainsi, par essais et erreurs, la solution.

5-3 Les algorithmes génétiques

         Charles Darwin [Darwin 1859] avait proposé une explication de l'évoltuion des êtres vivants en posant l'hypothèse de la "sélection naturelle" [Dessales 1996]. Contrairement a Lamarck (qui postulait l'hérédité des caractères acquis), Darwin pense que l'action de l'environnement ne s'exerce pas directement sur le génome d'un individu mais favorise la survie et la reproduction de certains génomes apparus aléatoirement par croisement et mutation des gènes.
         Au début des années soixantes, John Holland développe les "algorithmes génétiques" dans le but d'expliquer les processus naturels d'adaptation, et de concevoir des systèmes artificiels ayant les mêmes propriétés.
         Dans son principe cette méthode consiste à faire évoluer une "population" de solutions: Celles-ci se reproduisent par croisement des meilleures (favorisant ainsi leur survie) et par mutations (évitant une homogénisation d'individus meilleurs mais pas nécéssairement excellents). La sélection se fait en choisissant les individus pour lesquels une certaine fonction d'adaptation est maximale.
         On a montré qu'il s'agissait de procédures robustes d'exploration d'espaces complexes [Holland 1975] dont les solutions ne sont pas explicitées (mais découvertes par l'algorithme lui-même), et pouvant s'appliquer à toute une classe de problèmes (car indépendantes de ceux-ci).
         Les algorithmes génétiques remplacent les méthodes traditionnelles d'optimisations (qui progressent localement) par une sorte de paralellisme massif, toute une population de solutions évoluant et se reproduisant sur le modèle des êtres vivants.

6 Application à la création artistique

         Historiquement liées à l'optimisation des problèmes, ces nouvelles techniques ouvrent un vaste champ de recherche en proposant une approche, non plus algorithmique, mais automatique des problèmes, c'est à dire que l'on a plus à fournir les solutions de ceux-ci , mais que l'on est conduit à construire soit un réseau susceptible d'évoluer favorablement, soit une population dont on attend qu'elle s'améliore.
        
         Les artistes qui utilisent les ordinateurs le font souvent, comme il a été dit plus haut, avec des méthodes archaïques simulant les techniques traditionnelles.
         Avec les réseaux neuronaux et les algorithmiques génétiques, une occasion leur est offerte de repenser leur rapport à la machine et de pouvoir enfin la considérer comme un outil de création et non pas seulement comme un moyen d'imiter ou de copier.
        
         Ainsi Karl Sims [Sims 1991] utilise des algorithmes génétiques pour créer des structures complexes, comme des plantes 3D, des textures ou des mouvements. Le rôle que peut jouer l'artiste est illustré par la façon dont Sims implémente ces idées: Il remplace d'abord la fonction d'adaptation explicite par une appréciation visuelle, retrouvant ainsi un jugement esthétique. Il remplace ensuite les génomes (qui sont des chaînes de caractères de taille fixe) par des expressions symboliques, reprenant en celà le concept de "programmation génétique" [Koza 1990 et 1992]. On voit bien sur cet exemple que l'artiste n'est pas prisonnier de la machine et qu'il peut en quelque sorte changer les "règles du jeu".
         Karl SIMS [Sims 1994] encore décrit un système pour générer des créatures virtuelles se déplaçant et se comportant dans un environnement physique 3D simulé. La morphologie de ces créatures et le réseau de neurones contrôlant leurs muscles sont générés automatiquement par des algorithmes génétiques. Un réseau neuronal est généralement spécifique au problème à traiter; l'idée de Sims, consistant à le faire trouver automatiquement par un algorithme génétique, résoud donc le problème de sa construction en simulant la vie qui invente le cerveau par un phénomène d'adaptation.
         Michel Van de Panne et Eugène Fiume [Van de Panne 1994] simulent des êtres vivants à partir de réseaux neuronaux dont les entrées sont des capteurs et les sorties sont des muscles contrôlant les mouvements d'un corps de synthèse obéissant aux lois de la dynamique: Ces "acteurs" inventent ainsi des stratégies de marche qu'aurait fort bien pu trouver la nature. De telles recherches, dans le domaine de la "vie artificielle", ouvrent à la création artistique des voies nouvelles en considérant une oeuvre, non pas comme un objet fini et déterministe construit une fois pour toute, mais comme un véritable "être" ayant son autonomie et capable de nous surprendre.
         Latham et Todd [Todd 1991] appliquent des concepts analogues pour engendrer des sculptures autogénérées, simulées par des primitives 3D de la géometrie constructive.
         Michael Tolson utilise les réseaux neuronaux pour contrôler toute une population d'animaux de synthèse qui réagissent interactivement lorsque l'on dépose de la nourriture.
        
         Audelà de tels dispositifs simulant la vie, on peut imaginer des systèmes qui, par apprentissage, comprendraient la démarcher et le style d'un artiste, et qui l'accompagneraient ensuite dans sa création: Le dialogue traditionnel du créateur avec son oeuvre serait étendu en une interaction avec un partenaire intelligent.

Conclusion

         On sait aujourd'hui synthétiser des réalités virtuelles indiscernables de leur référent réel. Représenter ne peut donc plus se limiter à imiter une apparence visuelle, mais vise à construire un modèle crédible. Et même si celui-ci continue à se montrer comme image, à se lire comme simulation, ce n'est plus la chose representée en tant que telle qui est mise en scène, mais le processus par lequel elle vient au monde, existe et se comporte.
         Les tendances archaïques actuelles de l'image de synthèse (réalisme naif, attachement à la simulation de techniques anciennes) feront bientot place à des méthodes de construction de processus inspirés du monde vivant, les réseaux neuronaux et les algorithmes génétiques en étant des exemples parmi les plus récents.

Bibliographie

H. Abdi: Les réseaux neuronaux, Presses Universitaires de Grenoble, 1994
R. Bharath, J. Drosen: Neural Network Computing, Windcrest/McGraw-Hill New York, 1994
P. Bourret,J. Reggia , M. Samuelides: Réseaux Neuronaux, Teknea Toulouse, 1991
C. Darwin Charles: The Origin of Species, New American Library, Mentor paperback, 1959
J.L. Dessalles Jean-Louis: L'ordinateur génétique, Hermes Paris, 1996
P. Franscatel: Peinture et Société, Denoël Lyon, 1952
D. Goldberg: Genetic Algorithms, Addison-Wesley USA, 1991
J.H. Holland J.H.: Adaptation in natural and artificial systems, Ann Arbor: The University of Michigan Press, 1975
J.J. Hopfield: Neural Networks and physical system with emergent collective computational abilities, Proceeding of the National Academy of Science, USA,1982
J.R. Koza: Genetic Programming: A Paradigm for Genetically Breeding Populations of Computer Programs to Solve Problems, Standfort University of Computer Science Departement Technical Report STAN-CS-90-1314, 1990
J.R. Koza Genetic Programming: On the Programming of Computers by Natural Selection, Cambridge, MA, USA, MIT Press, 1992
Panofsky: La perspective comme forme symbolique, Les Éditions de Minuit, Paris 1975
F. Popper: Art Action et Participation, Klincksieck esthétique, 1980
F. Popper: L'art à l'âge éléctronique, Hazan, 1993
K. Sims: Artificail Evolution for Computer Gtaphics, in ACM Computer Graphics 24, 1991
K. Sims Evolving Virtual Creatures, in ACM Computer Graphics, 1994
S.J.P. Toddet, W. Latham: Mutator a Subjective Human Interface for Evolution of Computer Sculptures, IBM United Kingdom Scientific Centre Report 248, 1991
M. Van de Panne Michiel, E. Fiume Sensor-Actuator Networks, University of Toronto Canada, 1994

Publié dans L 'autonomie

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article