COMPUTER GRAPHICS HISTORY

(Pour agrandir une image 1 clic sur l'image 2 clic pour revenir(To enlarge a picture 1 mouse clic on it 2 clic to come back)

Les images de synthèse



Image typique des années 1980 : dallage, sphère, reflets et une image de fond (les nuages).

La synthèse d'images est une des disciplines de l'infographie, elle consiste en la création assistée par ordinateur d'images numériques. Ces images sont appelées « images de synthèse ».

Si la qualité et la puissance des matériels informatiques sur lesquels les premières images ont été conçues (dans les années 1960), que ce soit pour le calcul des images ou pour leur affichage, ne permettaient pas le photoréalisme, la grande tendance des années 1980 fut vers un certain photoréalisme. Celle-ci étant quasiment atteinte dans les années 1990 (en temps différé), voire en temps réel (années 2000), on observe un retour à une certaine liberté graphique dans la conception des images.

Au cinéma

Dès 1973, Peter Földes produit au Canada un certain nombre de courts-métrages animés par ordinateur, comme La Faim.

En 1976, Les Rescapés du futur (Futureworld), suite de Mondwest (1973), est le premier long-métrage à intégrer des images de synthèse 3D à son récit.

En 1982, Tron est le premier film à mélanger images réelles et images créées ou retouchées par ordinateur.

En 1983, Maison vol Sogitec Ina 1er court metrage français diffusé

En 1983, Humanonon by michel françois music by Alain Guelis.

En 1985, Tony de Peltrie, film qui fait apparaître une charge émotionnelle forte.

En 1986, John Lasseter, qui a réalisé le premier court-métrage entièrement en images de synthèse, Luxo Jr. est nommé aux Oscars.

En 1995, il récidive avec Toy Story, le premier des longs-métrages, pour lequel il reçoit un Oscar.

En 1998, Vache Folle Sup info com school france

UNIVERSITY OF UTAH 70's





VOL LIBRE BY LOREN CARPENTER


NC STATE UNIVERSITY



MIT UNIVERSITY 1982



Story of Computer Graphics research


En 1998, Sup info com school france

Enfin en 2001, Final Fantasy : les Créatures de l'esprit est le premier long-métrage ambitionnant le photoréalisme.

Grands noms

Ivan Sutherland, le précurseur et son système interactif Sketchpad ;

Pierre Bézier chez Renault, où il inventa les courbes qui portent son nom, utilisées en CAO ;

Paul de Casteljau chez Citroën, qui inventa un algorithme de calcul des courbes de Bézier ;

Benoît Mandelbrot découvrant les propriétés fractales, utilisées en simulation de plantes, terrains, et autres phénomènes complexes ;

Henri Gouraud pour son algorithme d'ombrage ;

Bui Tuong Phong travaillant à l'INRIA, où il créa son algorithme d'illumination et, avec quelques autres chercheurs, une pré-version de ce qui allait devenir OpenGL ;

Jack E. Bresenham pour ses algorithmes de tracé de segment et de cercle, basés sur des opérations entières.

Modèle d'illumination de Phong


Computer Graphics Demo Reel



COMPUTER GRAPHICS UNIVERSITY


PHONG TEXTURE SHADER

Définition des différents vecteur

Application à l'infographie

Lorsqu'on souhaite appliquer cet algorithme en infographie, on sépare les composantes rouge/vert/bleu de la couleur de la texture pour le point considéré. Puis on applique la formule à id = is = icouleur pour les trois couleurs.

Les failles du modèle de Phong

La composante spéculaire se base sur deux vecteurs directionnels, l'observateur et la lumière, et interdit toute radiosité du modèle. Ce modèle est empirique et n'est fondé sur aucune théorie physique, mais uniquement sur les observations de Phong. Ce modèle ne prévoit pas la diffusion de la lumière avec la distance

L'interpolation de Phong

http://upload.wikimedia.org/wikipedia/fr/c/c6/Phong_shading.png
Une sphère interpolée et rendue selon Phong
Cette méthode, à mettre en parallèle avec l'interpolation de Gouraud, produit de bons résultats de rendus, souvent plus réalistes que son prédécesseur.
Le principal problème de l'ombrage de Gouraud, c'est qu'il ne calcule que les sommets (vertex) des polygones : une source lumineuse spéculaire placée au centre d'un triangle n'apparaîtra pas. Ce problème est réglé avec l'interpolation de Phong.
Soient trois sommets distincts : v1, v2 et v3, ayant pour vecteurs unitaires normaux n1, n2 et n3. Comme pour l'interpolation de Gouraud, celle-ci se fait de façon linéaire sur toute la surface du triangle v1v2v3, seulement elle se fait depuis les trois vecteurs normaux des sommets, c'est-à-dire que nous interpolons en fait les vecteurs normaux au lieu des couleurs.
À la différence de l'interpolation de Gouraud cependant, le calcul ne se fait pas sur 3 points par surface, mais pour tous les points d'une surface - ou plus raisonnablement, sur plusieurs subdivisions de points. Cette méthode, bien plus lente, est parfois traitée par le matériel directement, via les shaders.


Images de synthèse : palme de la longévité pour l’ombrage de Gouraud  
L'histoire de l'invention de « l'ombrage de Gouraud », que tous les infographistes connaissent bien, est l'occasion de revenir sur l'histoire des images de synthèse. D'autant plus que, fait rare dans l'histoire de l'informatique, 40 ans après, elle est toujours d'actualité.
Dans le monde informatique, combien de méthodes algorithmiques résistent à l'usure du temps ? Assurément très peu, les chercheurs et les développeurs améliorant en permanence les performances des solutions existantes, ou bien en inventant de nouvelles. Il y a au moins une exception à ce constat, une innovation qui, malgré l'augmentation de la puissance des ordinateurs et l'évolution des logiciels, reste d'actualité, toujours utilisée depuis bientôt... 40 ans ! Et pas dans n'importe quel domaine : celui des images de synthèse, et par conséquent dans ceux des jeux vidéos, des effets spéciaux du cinéma, de la conception assistée par ordinateur (CAO) dans l'industrie automobile, aéronautique ou aérospatiale, des logiciels d'architecture, de la réalité virtuelle...
« Il n'y a qu'une seule explication à cela, avance discrètement Henri Gouraud, l'inventeur de la technique de rendu des images de synthèse 3D qui porte son nom : elle était à l'époque et elle reste aujourd'hui encore la technologie la plus simple, la plus économique pour obtenir des images 3D quasi-réalistes, en temps réel. » Elle est même utilisée aujourd'hui dans toutes les cartes graphiques 3D du marché des ordinateurs. Cela ne durera peut-être pas encore plusieurs décennies, car les technologies d'informatique graphique plus sophistiquées, beaucoup plus réalistes encore, profitent de la puissance des ordinateurs. Mais la prouesse n'en reste pas moins remarquable.
Revenons donc quelques années en arrière, lorsqu'en septembre 1968, Henri Gouraud, jeune homme de 24 ans, traverse l'Atlantique sur les conseils d'un de ses professeurs de Sup'Aéro pour rejoindre le département Informatique de l'Université de l'Utah (Salt Lake City) et l'équipe d'Ivan Sutherland. « L'informatique graphique m'intéressait, raconte Henri Gouraud. Parce que c'était concret : on voyait ce qu'on faisait. Mais je n'y connaissais rien. J'avais seulement fait du Fortran et du calcul numérique à l'Ecole Centrale, et commencé à découvrir l’informatique dans ma spécialisation Automatique et Informatique à Sup'Aéro. »
En revanche, Ivan Sutherland avait, quant à lui, déjà une certaine notoriété en la matière. Pionnier de ce domaine, au début des années 1960, il avait développé au Massachusetts Institute of Technology (MIT) ce qui est considéré comme la première application interactive graphique : Sketchpad definition. Ses travaux, publiés dans sa thèse, en 1963, décrivent les principes fondamentaux de l'infographie 3D et du vaste domaine de la conception assistée par ordinateur, la CAO, autrement dit le prototypage virtuel, qui deviendra, en quelques décennies, le modèle pour la conception de toute l'industrie automobile et aéronautique. Il propose à Henri Gouraud de travailler dans cette voie, sur la conception et la manipulation par ordinateur, en temps réel, d'objets 3D complexes, comme des pièces de structure automobile.
Quel était le contexte ? La synthèse d'images, création d'images numériques par ordinateur, était dans les limbes. Jusqu'à la fin des années 1960, ordinateurs et écrans d'affichage étaient évidemment à des années lumière des matériels actuels. Néanmoins, les bases de la modélisation des images étaient déjà posées. Le calcul par ordinateur de l'image d'un objet (que ce soit un capot de voiture, un avion ou un visage) repose sur la définition de sa forme à l'aide d'un modèle géométrique. Chaque objet peut être représenté par des facettes, des polygones, triangles, rectangles... qui décrivent l'enveloppe extérieure de n'importe quel solide.


http://interstices.info/upload/ombrage-gouraud/cube.gif

À partir d'une structure en fil de fer, quelle est la face avant ?

À l'écran, cela se traduit par une juxtaposition de facettes représentées par leurs arêtes, ce qu'on appelle « la structure en fil de fer ». On voit tout simplement toutes les facettes que l'ordinateur a calculées. Prenons l'exemple d'un dé : son modèle numérique s'affiche avec ses six faces, comme s'il était transparent. L'intérêt de cette représentation simple est qu'elle pouvait être affichée en temps réel, avec le matériel de l'époque. Il existait des écrans (ADAGE, Tektronix...) que l'on utilisait un peu comme des tables à dessiner, en traçant des lignes, composant ainsi un dessin vectoriel dont les équations étaient décrites dans l'ordinateur, et que l'on pouvait ensuite manipuler, en modifier la longueur... « Mais dès que les objets dessinés étaient complexes, on n'y comprenait plus rien, les tracés des faces avant et arrière se mélangeaient » explique Henri Gouraud.
Beaucoup de recherches visaient, à ce moment là, à résoudre ce problème d'affichage, pour que seules les faces visibles de l'objet soient affichées, qu'on ne voie plus au travers. En particulier, le français Philippe Loutrel à New York avait publié une thèse sur ce sujet en 1967. Sa méthode de résolution faisait néanmoins appel à des calculs complexes qui posaient de délicats problèmes de précision. À l’Université de l'Utah, le directeur du département David Evans avait proposé une approche fondamentalement différente, beaucoup plus simple : effectuer les calculs non plus dans l'espace géométrique de l'objet – où la précision des nombres en question définit la précision du résultat – mais en fonction de l'écran – où la précision est dictée par sa résolution, c'est à dire le pixel. La thèse de John Warnock, également à l'université de l'Utah en 1969, a été la première à mettre en œuvre cette approche qui permettait en plus une représentation plus naturelle des objets, avec un aspect volumique, solide, une image opaque, bien plus réaliste.
« Mais ces images solides, comme celles sur lesquelles travaillait John Warnock, étaient bien plus longues à calculer, rappelle Henri Gouraud. Du coup, l'affichage était très lent. On devait utiliser un appareil photo, en pause pendant deux minutes devant l'écran, pour capter l'image complète ! » Les mémoires d'écran n'existaient pas encore. Les ordinateurs n'étaient pas capables de conserver les images calculées au fur et à mesure et de les afficher en balayage comme le font les écrans de télévision, au rythme d'une image tous les 1/30e de seconde. Justement, un autre thésard du labo, Gary Watkins, concevait un matériel d'affichage d'objets solides, en temps réel sur un écran de type TV. Sa technique était basée sur une comparaison des facettes entre elles pour déterminer leurs points d'intersection, éliminer les facettes cachées... « Tout à fait ce dont j'avais besoin » résume Henri Gouraud.
Restait néanmoins un problème de taille : « Pour représenter les pièces complexes auxquelles je m'intéressais, les facettes étaient trop anguleuses, poursuit Henri Gouraud. Je souhaitais utiliser des surfaces courbes comme celles proposées quelques années plus tôt par Coons ou Bézier. » Les surfaces (ou « carreaux ») de Bézier, inventées en 1962 par les ingénieurs français Paul de Casteljau (Citroën) et Pierre Bézier (Renault), permettaient de concevoir par ordinateur la surface de pièces de carrosseries par exemple. Le modèle était ensuite intégré dans une machine à commande numérique pour être usiné dans une mousse que l'on pouvait peindre pour avoir une idée réaliste de la pièce. Citroën et Renault étaient d'ailleurs précurseurs en CAO mais on était loin des applications interactives.
« Sauf que pour pouvoir tirer profit des algorithmes de John Warnock et de Gary Watkins pour supprimer les faces cachées et utiliser l'affichage en mode TV, il me fallait décomposer chaque surface de Bézier en une collection de facettes, reprend Henri Gouraud. Ce qui redonnait immanquablement un aspect anguleux à mes images. »
En effet, l'ombrage plat alors utilisé consistait simplement à affecter à chacune des facettes de l'objet un éclairement fonction de l'angle entre la normale à la facette et la direction de la source lumineuse éclairant la scène. Cette valeur est constante sur toute la facette, d'où la discontinuité d'ombrage entre les facettes adjacentes.
Là encore, Henri Gouraud a su contourner le problème et mettre à profit la diversité des approches qui étaient étudiées dans son environnement de recherche. « Il faut dire que l'université de l'Utah et en particulier notre département était une vraie pépinière de chercheurs en synthèse d'images » reconnaît-il. Il suivait le cours de traitement du signal du professeur Thomas Stockham. Celui-ci s'intéressait à la façon dont la rétine traite les images, avant de les envoyer au cerveau. Il supposait, à juste titre, qu'une meilleure compréhension de ces phénomènes permettrait d'améliorer l'affichage des images numériques, sur l'écran de l'ordinateur.
« Les théories de Thomas Stockham m'ont permis de voir les choses sous un autre angle (presque sans jeu de mot), reconnaît Henri Gouraud. J'ai compris que la rétine travaillait toujours à faire surgir le détail dans une image : un minuscule point dans une image blanche, les frontières entre les facettes... c'est d'ailleurs la raison pour laquelle diminuer leur taille était illusoire, puisque non seulement cela pénalisait les temps de calcul, mais il aurait aussi fallu aller au delà de la résolution de l’écran pour s'en affranchir. C’est cela qui m'a donné l'idée de teinter les facettes, de façon à estomper leurs arêtes, redonner une continuité visuelle à l'image. » Il fallait y penser.


http://interstices.info/upload/ombrage-gouraud/sphere.jpg

Premier Polaroïd qu'Henri Gouraud a montré à Ivan Sutherland.

La suite est allée très vite : un rapide essai sur l'image d'une sphère avec le logiciel de Gary Watkins modifié pour prendre en compte cette nouvelle méthode d’ombrage. « On ne voyait plus les facettes, se rappelle Henri Gouraud. J'ai montré ce résultat à Ivan Sutherland, mais il m'a surtout conseillé de me remettre au travail... à la conception, manipulation d'objets... à la CAO plutôt qu'au rendu des images qui n’était effectivement pas le thème central de mon travail ! » Ce n'est qu'un mois ou deux plus tard qu'Ivan Sutherland revient vers lui, pour savoir si sa technique serait aussi adaptée à des objets complexes, comme une structure d'avion. « Pourquoi pas, lui répond-il : il suffit d'avoir sa géométrie, de la définir avec des facettes ! » Chose faite rapidement, sur une maquette d'avion, dont ils mesurent les coordonnées, les entrent dans l'ordinateur, et l'image s'affiche à l'écran...


http://interstices.info/upload/ombrage-gouraud/avion.jpg

Polaroïd de la maquette d'avion qui a convaincu Ivan Sutherland.

« C'est cette photo qui a été le déclic ! » se rappelle t-il. « Cela vaut un PhD, m'a dit Ivan Sutherland. Rédige cette idée, ce sera le sujet de ta thèse. » Un peu incrédule, compte-tenu de la simplicité technique et mathématique, Henri Gouraud couche son idée sur le papier. Une excellente idée, comme le confirmera la suite, justement parce qu'elle apporte une solution simple à un problème qui paraissait compliqué. D'ailleurs, pour explorer les limites de sa technique, Henri Gouraud n'a pas hésité à prendre son épouse comme modèle ! « Quoi de plus compliqué à reproduire qu'un visage ? » rétorque-t-il. Un soir, elle a donc accepté de servir la science : il lui a peint des lignes sur le visage au crayon noir, il a mesuré les sommets des polygones et entré le tout dans l'ordinateur. Les images du visage de Sylvie Gouraud, façonnées par l'ordinateur selon l'ombrage de son mari, ont ainsi été publiées dans de nombreuses revues et ont figuré en bonne place au Musée de l'informatique de Boston (Mountain View aujourd'hui).

Henri Gouraud (Lissage des facettes) 1973

Henri Gouraud inventa par l'interpolation linéaire toute simple et ajouta le coordonnée I à ceux existant X,Y,Z pour le sujet de sa thèse dirigé à l'Utah university, ce qui a pour effet de lisser les facettes d'un objet tout comme le fit plus précisemment l'algorythme de Phong



http://interstices.info/upload/ombrage-gouraud/sylvie-lines.jpg

Visage de Sylvie Gouraud pendant le relevé de points.
 

http://interstices.info/upload/ombrage-gouraud/sylvie-flat.jpg

http://interstices.info/upload/ombrage-gouraud/sylvie-smooth.jpg

Reconstruction des facettes à l'ordinateur, à gauche, puis lissage avec ombrage de Gouraud, à droite.

En quoi consiste exactement cette fameuse technique d'ombrage ? « C'est un lissage sur la surface de chaque facette, explique son auteur : mon algorithme calcule l'éclairement local de l'objet pour chaque sommet des facettes, et le répartit pixel par pixel sur la facette en l’interpolant entre chaque sommet. » Concrètement, on commence par interpoler les valeurs de l'éclairement sur les frontières des facettes à partir des éclairements calculés de façon exacte aux sommets. Puis on calcule les valeurs de l'éclairement en chaque pixel de la facette par interpolation des éclairements calculés sur ses frontières. Cet algorithme, contrairement aux solutions précédentes, utilise donc un calcul qui n'est pas uniquement basé sur la facette, mais prend en compte les facettes adjacentes en calculant une moyenne de leurs valeurs d'éclairement, ce qui rend les arêtes entre facettes voisines (presque) imperceptibles.
Pour la première fois, surtout, les chercheurs en synthèse d'image se libèrent de la géométrie pure de l'objet et effectuent sur l’image un travail créatif visant à en améliorer le réalisme. De nombreux thésards ont poursuivi dans cette voie, pendant plusieurs années. C'est d'ailleurs l'un d'entre eux, Bui Tuong Phong, un français d'origine vietnamienne qui venait de l'INRIA, qui a donné le nom d'« ombrage de Gouraud » à cette technique. « Je l'avais baptisé « smooth shading » autrement dit ombrage lisse par opposition à l'ombrage plat (flat shading) à base de facettes de teinte uniforme, précise Henri Gouraud. Bui Tuong Phong a publié sa thèse en 1973 sur une technique plus complexe, qui améliorait encore le rendu en traitant correctement l'effet produit par la réflexion des sources lumineuses. Pour la différencier de la mienne, il les a baptisées respectivement « ombrage de Gouraud (Gouraud shading) » et « ombrage de Phong (Phong shading) »... et c'est resté ! »


http://interstices.info/upload/ombrage-gouraud/flat.jpg

http://interstices.info/upload/ombrage-gouraud/gouraud.jpg

http://interstices.info/upload/ombrage-gouraud/phong.jpg

Le même objet en ombrage plat (à gauche), de Gouraud (au centre), et de Phong (à droite).

Le rendu n'a cessé d'être amélioré ensuite avec le bump mapping (pour donner l'illusion d'un relief granuleux), le texture mapping (pour donner un aspect de texture, peinture)...
On connaît aujourd'hui le succès des images de synthèse. Néanmoins, les utilisateurs actuels (cinéma, CAO, architecture...) ne s'en sont pas emparés d'emblée. « Il y avait un vrai décalage entre nos travaux d'informaticiens et ces utilisateurs, explique Henri Gouraud. Un concepteur de carrosserie comme Pierre Bézier, que je suis allé voir avec mes images, n'était absolument pas convaincu de l'intérêt des images à l'écran : il avait besoin de les transformer en une maquette réelle, voir le reflet de la lumière sur sa carrosserie. Et j'avoue qu'on était encore loin des rendus réalistes dont il avait effectivement besoin. » Idem en architecture : les architectes n'envisageaient pas de passer plusieurs jours à relever les coordonnées d'un futur bâtiment et les entrer dans l'ordinateur. Peu de clients étaient prêts à en payer le prix. Il a fallu attendre les premiers logiciels de dessin assisté par ordinateur, comme AutoCAD en 1982, qui ont rapidement imposé les modèles 3D et leur intérêt pour le métré des matériaux et les calculs de structures.
C'est en fait l'industrie aéronautique qui a pris les devants en matière de CAO. Là encore, la compétence des ingénieurs français en représentation mathématique des objets était reconnue. Le logiciel le plus réputé, Catia, développé dans les années 1970 par Avions Marcel Dassault pour ses propres besoins, est ensuite devenu le cœur de métier de Dassault Systèmes, filiale créée en 1981. Commercialisé par IBM, Catia est depuis 1984 le principal outil de CAO de Boeing. Plusieurs milliers d'entreprises l'utilisent dans le monde tant pour la conception mécanique que de systèmes électriques, le design ou la fabrication assistée par ordinateur (FAO). C'est une référence en aéronautique évidemment, mais aussi désormais en architecture - depuis 1995, Frank Gehry a conçu avec Catia la plupart de ses réalisations, comme le Musée Guggenheim de Bilbao – et dans l'industrie automobile où la voiture est totalement reconstituée en images de synthèse, chaque pièce pouvant être tournée, démontée, comme sur un prototype physique. Les ingénieurs peuvent vérifier la disposition des instruments de conduite, la visibilité, l'accès aux pièces mécaniques... On entre alors dans le monde de la réalité virtuelle. Là encore, Ivan Sutherland fut l'un des précurseurs : à la fin des années 1960, il a conçu le premier casque de visualisation asservi aux mouvements de la tête, l'« Ultimate Display ».
Avec quelques autres, c'est aussi lui qui a eu l'idée d'utiliser ces techniques pour le cinéma, au début des années 1980. Mais cela n'a pas abouti. Les premiers films qui comportaient quelques séquences d'animation en trois dimensions sont sortis en 1982 : d'abord « Vol de rêve » de Nadia et Daniel Thalmann, puis « Tron », une production de Walt Disney où une course de moto futuriste est réalisée à partir d'images de synthèse. Les français étaient très présents sur ce terrain et y apportaient une créativité artistique notoire. Les sociétés françaises « pionnières » de l'image de synthèse ont été Sogitec et TDI (Thomson Digital Image), qui développaient du matériel (simulateurs de vol et de conduite, essentiellement pour la défense) mais faisaient aussi un peu de production d'image, et surtout Ex Machina (issue de TDI) et Mac Guff Line (créée il y a un peu plus de 20 ans), spécialisées dans la production d'image.
Le premier film d'animation entièrement en images de synthèse viendra bien plus tard, en 1995, avec « Toy Story » des studios Pixar (cofondé par Ed Catmull, ancien étudiant de l'université de l'Utah). Ils ont développé un « moteur de rendu », baptisé RenderMan, considéré comme l'un des plus performants aujourd'hui. Depuis, les succès n'ont cessé, reléguant en quelques années les films d'animation traditionnelle des Studios Disney au stade d'antiquités : « Shrek » en 2001, « Le monde de Nemo » en 2003, « Ratatouille » en 2007...
C'est seulement à partir des années 1990 que les images de synthèse ont connu un développement fulgurant, notamment grâce à l'évolution du matériel, comme les cartes 3D de Silicon Graphics (dont le fondateur, Jim Clark est aussi un ancien étudiant de l'université de l'Utah) dédiées à des stations de travail haut de gamme. Suivront des cartes 3D pour ordinateur grand public et consoles de jeux vidéos, Nintendo et autres PlayStation dont on connaît le succès. Outre le cinéma et les jeux vidéos, les animations 3D ont aussi conquis le monde de la publicité, les génériques d'émissions, les simulateurs de vol... Elles sont aussi devenues indispensables en médecine, en recherche scientifique, météorologie...
« Aujourd'hui, les images calculées par ordinateur sont difficiles à distinguer des images réelles » se félicite Henri Gouraud. Et de se souvenir qu'il n'y a pas encore si longtemps, le nombre de polygones de Gouraud qu'un ordinateur était capable d'afficher par seconde était un argument de vente des fabricants de cartes graphiques.
Une chose est sûre : si l'ombrage de Gouraud est désormais cantonné à certains modes de fonctionnement spécifiques des applications, lorsque l'image doit être calculée très vite, en temps réel, sur un grand nombre de facettes, cette innovation figure dans tous les manuels d'images de synthèse et elle y restera assurément longtemps.



L'ODYSSÉE DE LA 3D


Verónica Camacho

Fonds de Création Audiovisuelle Contemporaine

Institut National de l'Audiovisuel, France.

Résumé (FR) L’Odyssée de la 3D est une anthologie chronologique de films en images de synthèse 3D qui retrace la formidable épopée de cette technique, depuis les pionniers des années soixante-dix jusqu’à la fin du XX siècle. Composée de deux volumes, d’une durée de 85 et 88 minutes, L’Odyssée de la 3D présente les oeuvres ayant marqué le développement des outils infographiques et techniques numériques à travers le monde, ainsi que les créations qui sont à la base d’esthétiques et narrations nouvelles. Toutes les oeuvres de L’Odyssée de la 3D sont extraites du Fonds de Création Audiovisuelle Contemporaine de l’Institut National de l’Audiovisuel (http://www.ina.fr/inatheque/activites/projections/index.fr.html) Mots clés : Images de synthèse tridimensionnelles animées, Art technologique, Simulation numérique, Archives numériques, Cinéma. Abstract (EN)

A 3D Odyssey is an anthology of 3D animation films that recall the great epic of this technique, since the pioneers of the seventies until the end of the XX century. Composed of two volumes, of 85 and 88 minutes duration, A 3D Odyssey presents works having marked the development of digital tools and digital techniques throughout the world, as well as creations which are at the base of new aesthetics and narration’s. All works of A 3D Odyssey are extracted from the Funds of Contemporary Audiovisual Creation of the National Institute of Audiovisual (http://www.ina.fr/inatheque/activites/projections/index.fr.html) Keywords : 3D Animation, Technological Art, Digital Simulation, Digital Archives, Cinema.

I. L'Odyssée de la 3D (volume 1) : Évolution des outils et des techniques numériques Les premières expériences d’animation d’images bidimensionnelles (2D), réalisées au début des années soixante-dix, ont montré au monde entier que l’image calculée par ordinateur pouvait se prêter à un propos artistique. Olympiad de Lillian F. Schwartz et Kenneth C. Knowlton (EUA, 1971) a été l’une des premières animations figuratives en synthèse d’images 2D. Cette oeuvre, inspirée des planches photographiques d’Eadweard Muybridge sur l’étude de la locomotion humaine, simule le mouvement de la course d’athlètes stylisés. Deux années plus tard au Canada, le talentueux animateur de dessins animés Peter Foldès réalise le chef d’oeuvre La Faim (Canada, 1973). Ce film montre l’enchaînement d’une suite de métamorphoses complexes au service de la narration du film : un cadre devient boulimique jusqu’à l’obésité avant de finir dévoré par des enfants du tiers monde.

Après la maîtrise du trait et de la simulation de sa mise en mouvement, la synthèse d’images part à la conquête de la troisième dimension. Ed Emshwiller, l’un des premiers artistes venus de l’art vidéo, réalise Sunstone (EUA, 1979) considéré aujourd’hui l’un des films clés de l’art vidéo. Ce film a montré qu’il était possible de synthétiser des textures réalistes ou imaginaires, de les plaquer et de les animer sur des modèles 3D, notamment avec la séquence d'ouverture (l'animation du visage du soleil qui sourit et s’illumine d’une curieuse radiance) ou comme ce cube dont les différentes faces sont habillées avec des textures animées.

Le début des années quatre-vingt a été spécialement fertile pour les développements de systèmes d’animation de modèles 3D. Les recherches vont se diriger alors vers l’animation de personnages, ce qui va orienter la création en images de synthèse vers les films de fiction. Vol de Rêve de Philippe Bergeron, Nadia Magnenat-Thalmann et Daniel Thalmann (Canada, 1982) est l’un de premiers films narratifs en images de synthèse 3D. L’envol de la caméra virtuelle emporte le spectateur dans un voyage à travers les maquettes architecturales filaires de différents pays. Très stylisé, ce film est un hommage aux traits de construction de la structure du modèle filaire, qui sont exprimés avec beaucoup d’émotion visuelle. Cette même année, Steven Lisberger réalise Tron (EUA, 1982) dont l’action se déroule au coeur d’un jeu vidéo. Ce cinéaste est le premier à intégrer dans la mise en scène d’un long métrage des objets et des éléments de décors en images de synthèse 3D. « Les observateurs et les critiques se demandaient s’il s’agissait là du début d’une ère nouvelle dans l’industrie cinématographique. Certains prédisaient déjà que les images de synthèse introduisaient une révolution comparable à celle qui a vu l’avènement du sonore en 1927, avec The Jazz Singer » (Warren, 1987). Aujourd’hui Tron est considéré comme un film culte puisqu’il a consommé la rencontre du cinéma et des images de synthèse 3D. L’Europe n’est pas en reste, avec Maison Vole,

André Martin et Philippe Quéau (France, 1983) ont signé l’un des premiers films français en images de synthèse (voir Fig.1) . Les deux réalisateurs allaient par la suite largement contribuer au développement de ces techniques, notamment en participant activement à la création d’Imagina, devenu aujourd’hui l’un des rendez-vous obligés des professionnels du domaine.

Bio Sensor conçu par Takashi Fukomoto et Hitoshi Nishimura (Japon, 1984) est l’un des premiers films à avoir exploré la voie de la rotoscopie tridimensionnelle pour la simulation de la locomotion animale et humaine. Ce film s’est très vite fait remarquer par les mouvements saisissants d’une panthère mécanique —animée à partir des mouvements d’un félin réel— et des quatre coureurs qui s’élancent vers les quatre points cardinaux —animés à partir des mouvements d’un athlète professionnel—. Au même temps aux Etats-Unis, la publicité américaine Sexy Robot, réalisée par Randy Roberts et produite par Robert Abel & Associates (EUA, 1984), exploite la même technique. Les gracieux mouvements réalistes du robot féminin, issus d’un savant mélange des mouvements d’une danseuse réelle et des processus de synthèse d’images, ont captivé le monde entier.

Fig. 1 : Maison Vole d’André Martin et Philippe Quéau. Production INA, Sogitec Audiovisuel. France 1983. Pendant ce temps, un groupe d’animateurs de l’université de Montréal s’est attaqué à la simulation d’expressions faciales prélevées sur celles d’un visage humain et à l’expérimentation de la modélisation hybride. Le héros de Tony de Peltrie de Philippe Bergeron, Daniel Langlois, Pierre Lachapelle et Pierre Robidoux (Canada, 1985), est le premier personnage 3D hybride —dans tout le sens du terme— puisque sa tête est née dans les mains d’un sculpteur avant d’être saisie numériquement, son corps a été construit avec des techniques de modélisation standard ; et l’animation de son visage est le résultat d’un subtile mélange d’expressions capturées sur un acteur en chair et en os, appliquées par méthode d’animation par keyframe. Ces premières expérimentations de modélisation et d’animation hybride déboucheront quelques années plus tard sur le développement des différents systèmes de capture de mouvements sophistiqués et des systèmes de numérisation.

Le film Luxo Junior de John Lasseter (EUA, 1986), qui évoque les démêlées de deux lampes de bureau avec une balle, montrera très rapidement aux professionnels de la synthèse d'image qu’ils ne pourront plus faire l'économie d'un savoir-faire éprouvé depuis Walt Disney.

Avec ce film, le talentueux animateur John Lasseter va ouvrir la voie aux images de synthèse 3D vers le cinéma d’animation en appliquant les principes fondamentaux de l’animation traditionnelle. Luxo Junior deviendra très vite le film en image de synthèse 3D le plus primé des années quatre-vingts et de ce fait, le plus connu du grand public. Ce film marque le début de l’animation d’objets inspirée des techniques traditionnelles d’animation en volume (objets, marionnettes) et qui sera amplement développée par la suite. « Curieusement, vers les années 1986-1987, les chercheurs se sont aperçus qu'il était plus simple de construire des modèles algorithmiques compliqués, intégrant les propriétés dynamiques et physiques des objets, que d'inculquer à l'ordinateur le véritable talent d'un animateur professionnel (comme celui de John Lasseter).

Ces modèles complexes proches de l'intelligence artificielle, appelés modèles dynamiques ou comportementaux permettent de simuler directement l'animation, à partir d'ordres simples, par opposition à l'animation traditionnelle par dessins clés » (1990). Parmi les films bénéficiant de ces techniques procédurales se trouvent Stanley and Stella in Breaking the Ice de Lary Malone (EUA, 1987) et Eurhythmy de Susan Amkraut et Michael Girard (Pays Bas, 1989) exploitant tous deux l’animation comportementale ; Particle Dreams de Karl Sims (EUA, 1988) qui présente les possibilités illimitées des systèmes de particules pour la simulation de phénomènes naturels ; A Sequence From The Evolution of Form de William Latham (Grande-Bretagne, 1989) qui explore les possibilités multiples de transformations, mutations et métamorphoses générées par l’ordinateur ; Tipsy Turvy de Thomas J. Watson (EUA, 1989) qui expérimente les possibilités de simulation des lois physiques et des principes dynamiques et Panspermia de Karl Sims (EUA, 1990) celles des systèmes de particules, de la simulation dynamique et des algorithmes génétiques.

Par la suite, nous remarquons des auteurs qui commencent à explorer la voie des transformations, des déformations, des mutations et des métamorphoses, principes créés dans différents domaines de l’Art, réinventés plus tard par le dessin animé et que la synthèse d’images s’est finalement réappropriés pour en explorer les possibilités infinies grâce à la simulation numérique. Parmi les oeuvres qui excellent dans l’explorations de ces voies nous avons remarqué les lentes torsions sans fin de La quatrième dimension de Zbigniew Rybczynski (Pologne, 1988), les déformations d’une charmante locomotive « malléable » dans Locomotion de Steve Goldberg (EUA, 1989) et les mutations d’une masse de muscles humains en métal dans In Search of Muscular Axis de Toshifumi Kawahara (Japon, 1990)

Nous constatons dès la fin des années quatre-vingt, l’apparition d’une grande tendance dans la création d’images de synthèse 3D qui utilise l’hybridation d’images d’origines différentes ainsi que l’hybridation de techniques (modélisation, animation), grâce aux développements de la numérisation d’images, de la capture de mouvement et de la numérisation 3D. Technological Threat de Bill Kroyer (EUA, 1988) est l’une des premières animations hybrides à explorer, tout en le questionnant, le mélange de personnages issus du dessin animé de type cartoon et personnages 3D. Le Cirque Conférence de Marc Caro (France, 1989) explore et questionne les dimensions spatiales entre l’univers bidimensionnel de l’image traditionnelle et l’espace tridimensionnel de la synthèse d’images 3D, tout en mélangeant personnages réels et virtuels. Finalement, The Abyss de James Cameron (EUA, 1989) présente le premier « hybride protéiforme» d’un réalisme absolument hallucinant, que l’on pourrait décrire comme un pseudopode liquide composé d’eau de mer aux pouvoirs mimétiques. Ce personnage a été modélisé avec des techniques classiques de synthèse d’images, mais sa tête qui se métamorphose en prenant l’apparence de différents visages humains a été réalisée d’après la réplique numérique des acteurs réels. Son animation, hybride aussi, a été réalisée par keyframe d’après les photographies du visage des acteurs faisant différentes expressions. Ce film marque l’arrivée de nouveaux types de personnages dans le domaine du cinéma, qui vont permettre l’essor de narrations nouvelles.

Nous avons constaté que l’évolution des techniques numériques au cours des années quatre-vingts a favorisé des procédures nouvelles de création, propres à susciter des esthétiques jusqu’à là encore imprévisibles, mais que nous illustrerons dans le deuxième volume de L’Odyssée de la 3D.

II. L'Odyssée de la 3D (volume 2) : Essor d'esthétiques et de narrations nouvelles

Dans l’imagerie de synthèse 3D, pourtant largement influencée par la simulation des techniques traditionnelles, des modes de figuration et des esthétiques bien établies qui ont dominé l’art et la culture occidentale pendant de longs siècles, nous avons remarqué l’oeuvre de quelques artistes qui ont poussé l’exploration de la spécificité des techniques numériques, afin d’offrir de nouvelles propositions esthétiques à la synthèse d’image 3D. Le deuxième volume de L’Odyssée de la 3D met en avant des réalisations innovantes d’un point de vue esthétique, tant en ce qui concerne l’image et la narration. Ces « perles rares » donnent déjà une idée des préoccupations et des recherches esthétiques en synthèse d’images 3D. Au début des années quatre-vingt-dix James Cameron, avec son Terminator 2 (EUA, 1991), ouvre la voie à une nouvelle génération de personnages que nous qualifions d’« hybrides protéiformes », et qui seront à l’origine de nouvelles narrations cinématographiques. Après ses premiers essais avec le pseudopode de The Abyss (EUA, 1989), son robot T1000 est capable de se transformer en prenant n’importe quelle forme. La variabilité et la mouvance de la figure (mi-image, mi-objet) illustre l’inépuisable et la multiplicité, la mutation de formes rendue possible par la flexibilité du matériau numérique. Pour la première fois dans l’histoire des effets spéciaux cinématographiques un acteur réel est numérisé et doté d’un double virtuel, d’aspect entièrement chromé.

Quelques années plus tard Steven Spielberg avec Jurassic Park (EUA, 1993), met en scène des dinosaures plus vrais que nature au point que le spectateur finit par se laisser convaincre que la réalité se déroule sous ses yeux et qu’il n’est pas face à des monstres « fabriqués » (avec des techniques traditionnelles). Ce film marque la consécration des images de synthèse 3D pour la création de personnages. Dès lors le cinéma aura la possibilité de tout montrer : des animaux sauvages capables de se plier à la volonté du réalisateur (Jumanji de Joe Johnston, EUA, 1995), des personnages imaginaires donnant la réplique à des acteurs réels (Casper de Brad Siberling, EUA, 1995), voire des personnages ultra réalistes à morphologie humaine . L’arrivée de ces nouveautés est-elle susceptible de libérer le cinéma du réalisme des effets spéciaux en le dirigeant vers de nouveaux défis centrés autour de l’écriture cinématographique ?

Le scénario de la trilogie de The Matrix d’Andy et Larry Wachowski (EUA, 1999-2003) n’est-il pas la preuve d’une volonté de raconter des histoires en mettant en scène les préoccupations que suscitent les technologies numériques ?

Parmi les films d’auteurs tirant précisément profit des possibilités techniques de l’infographie tridimensionnelle pour développer des spécificités visuelles pertinentes et réellement novatrices, nous avons sélectionné la série Ils sont là, les Quarxs de Maurice Benayoun (France, 1993), l’animation Walking Around de César Cabañas (Espagne, 1995), la publicité NTT Data 97 d’Alain Escalle et Taiei Lee (France-Japon, 1997), la fiction Gas Planet d’Eric Darnell (EUA, 1992) et le vidéo-clip Alex Gopher « The Child » d’Antoine Bardou-Jacquet (France, 1999). Les Quarxs est la première série d'animation entièrement en images de synthèse 3D à développer un univers spécifique qui n'avait de sens qu'avec l'image de synthèse, trop complexe pour l'animation traditionnelle, inimaginable en images réelles et dépourvues de sens en bande dessinée. Cet univers étrange, à la fois réaliste et fantastique, nous présente des créatures bizarres qui défient les lois de la nature, ce qui fonde leur existence.

Leurs formes, mouvements et modes de fonctionnement singuliers bouleversent la banalité de l’univers quotidien, qui est représenté d'une manière suffisamment réaliste pour que le spectateur ne s'interroge pas sur son statut et puisse centrer son attention sur cette animalerie fantastique, rigoureusement classée, répertoriée, numérotée et étiquetée. Walking around de César Cabañas (Espagne, 1995), bien qu’il suive la logique de l'animation traditionnelle en volume style pâte à modeler, présente un espace instable, mouvant et malléable, en constante mutation, exploitant au mieux les possibilités de la simulation numérique. Construit sous forme d’un ordinaire parcours linéaire dont le point de départ est une terrasse de café et le point d’arrivée une maison, le héros se voit jouer différents tours perfides par cet espace mutant sous couvert d’une apparence banale.

Les transformations et les déformations subies par le personnage principal, défiant les lois de la physique, n’auraient jamais pu être réalisés avec des techniques traditionnelles de pâte à modeler et elles auraient été totalement dépourvues d’intérêt en dessin animé classique.

La publicité NTT Data 97 d’Alain Escalle et Taiei Lee (France-Japon, 1997) est une composition picturale temporelle jouant avec des objets fétiches du peintre surréaliste espagnol Salvador Dali. Il ne s’agit pas de peinture au sens traditionnel du terme puisque la simulation numérique offre la possibilité de donner vie à des univers picturaux, par nature, figés dans le temps. Gas Planet d’Eric Darnell (EUA, 1992) est un merveilleux exemple des possibilités du rendu non-photoréaliste (NPR), domaine en plein développement en ce moment.

Ces images observées en détail sont frappantes car il ne s’agit pas de peinture réelle, numérisée et plaquée sur les surfaces des modèles 3D, mais d’un nouveau rendu pictural spécifique aux techniques numériques, impossible à rendre avec des techniques graphiques et picturales traditionnelles. Le vidéo-clip Alex Gopher « The Child » d’Antoine Bardou-Jacquet (France, 1999), construit exclusivement avec de la typographie plate, exploite des éléments de l’animation traditionnelle en papier découpé mais dans un espace 3D. Merveilleusement conçu, ce vidéoclip montre un univers concevable et réalisable uniquement en images de synthèse 3D.

Nous avons sélectionné également un ensemble d’oeuvres qui explorent les possibilités de création de l’hybridation d’images hétérogènes, de techniques et d’outils numériques.

L’univers d’Ex Memoriam de Bériou (France, 1992) comme celui de tous les films de ce prolifique réalisateur hybride, est d’une grande richesse visuelle. Nous y retrouvons de nombreux éléments provenant de sources différentes (images 2D, 3D, réelles) et qui s'y mélangent. Ses films demeurent inclassables. L’animateur vidéaste Marc Caro, l’un des premiers artistes à explorer l’envers et revers des possibilités de l’outil numérique et de l’hybridation depuis les années quatre-vingt, excelle avec K.O. Kid (Marc Caro, France, 1992). Ce film de fiction mêlant personnages réels, personnages virtuels plats, mi-image miobjet, le tout dans un espace 3D, met en avant les conséquences des mécanismes de la démesure (ubris) : l’hypertrophie des membres de deux boxeurs lorsqu’ils échangent d’impressionnants coups de poings. Bien évidemment ces déformations excessives défient les lois physiques et des matériaux traditionnels. D’un autre côté, la chorégraphie Totempol de N+N Corsino (France, 1994) rend hommage à l’hybridation en mélangeant des danseurs virtuels stylisés, à des danseurs réels.

Le générique Coupe Du Monde FIFA 98 de Marc Tatou, Antoine Lantieri (France, 1998) joue avec les possibilités spécifique de l’aléatoire en tant que mode de création numérique, tout en mélangeant des images photographiques et des vidéos. L’animation The Simpsons «Treehouse of Horror VI » de David Silverman (GrandeBretagne, 1995) explique avec beaucoup d’humour les caractéristiques et spécificités propres au dessin animé, et à l’image de synthèse 3D, et illustre ainsi les possibilités de l’hybridation numérique. La fiction The End de Chris Landreth (Canada, 1995) et le générique Hommage à Jessie Owens & Carl Lewis de Pitof (France, 1996) explorent les possibilités de l’animation hybride. Quelques artistes ont créé des films hybrides défiant les lois de la perspective de la Renaissance, en recalculant celle-ci avec des lois qui leur sont propres et en proposant donc des modes de figuration originaux. Parmi ces rares films nous trouvons The Garden de Tamás Waliczky (Allemagne 1992) et Faux Plafond de François Vogel (France, 1999). Festival de Yoichiro Kawaguchi (Japon, 1991) et Cahin Caha de Michel Bret (France, 1996) sont deux exemples représentatifs d’oeuvres artistiques explorant les possibilités de l’animation procédurale et comportementale.

Ces techniques qui n’ont rien à voir avec les techniques traditionnelles, sont profondément novatrices mais difficiles à mettre en oeuvre pour le commun des artistes, analphabètes de la programmation. Elles utilisent des programmes complexes de création automatique de formes, de couleurs et de mouvements. En conclusion, nous voyons se confirmer les deux aspects paradoxaux de l’image de synthèse propres à la simulation. D’une part, des réalisations qui cherchent à simuler au plus près les techniques et les esthétiques traditionnelles et qui y arrivent, non sas succès parfois, mais qui pour la plupart ne produisent rien de fondamentalement original, et d’autre part des réalisations novatrices qui veulent explorer et développer ce que le numérique porte en soi de spécifique par rapport aux techniques traditionnelles.

Références Ouvrages:

KERLOW, Isaac Victor (2000). The art of 3-D computer animation and imaging. New York : John Wiley & Sons.

MASSON, Terrence (1999). CG 101 : A computer graphics industry reference. Indianapolis : New Riders.

DE AGUILERA Miguel, VIVAR Hi Hipólito (1990). La infografía. Las nuevas imágenes de la comunicación audiovisual en España.

Le livre d'Imagina. 10 ans d'images de synthèse. Paris : INA, Festival de télévision de Monte Carlo, La documentation française. Madrid : Fundesco, 1990.

Périodiques:

WARREN, Franklin (1987). Lucasfilm : un scénario pour le futur. Dossiers de l’Audiovisuel 15, septembre-octobre 1987, 21.



HISTORY TIMELINE OF COMPUTER GRAPHICS

lthough Looker (1981) was the first film with shaded 3D com puter graphics, Tron (1982) was the first with 15 minutes of computer animation and lots of shaded graphics. Some believe Tron's box office failure slowed the adoption of digital effects, but now most films include computer graph ics. Indeed, last year, of the top 10 box office films, eight had hundreds of digital effects shots or were created entirely with 3D computer graphics. During the past two decades, CG inventors have been in spired by filmmaking to create exciting new tools. In so doing, they have in spired filmmakers to expand the art of filmmaking-as you can see on the following pages. What's next? CG tools move downstream. Synergy gets energy.

(The date at the beginning of each caption refers to the issue of Computer Graphics World in which the image and credit appeared. The film's release date follows the caption.)


July 1982 For this one-minute "Genesis effect" during Star Trek II: The Wrath of Khan, a dead planet comes to life thanks to the first cinematic use of fractals, particle effects, and 32-bit RGBA paint software from Lucasfilm's Pixar group. (Premiere: 6/82)

http://images.pennnet.com/articles/cgw/cap/cap_96969.jpg

April 1982 When Disney's Tron was envisioned, few companies knew how to create CG effects, yet the film needed all-digital shots inside a videogame. Although now recognized as landmarks, the visual effects created by MAGI, Triple-I, Robert Abel & Associates, and Digital Effects are ignored by the Motion Picture Academy of Arts and Sciences' Visual Effects Branch. (Premiere: 7/82)

http://images.pennnet.com/articles/cgw/cap/cap_96971.jpg

July 1982 Creating the dark, futuristic vision of LA in Blade Runner is accomplished using model shots and painted backgrounds. Several different kinds of software systems help generate computer-controlled camera moves on stage by, for example, fitting motion curves to selected key frames. (Premiere: 6/82)

http://images.pennnet.com/articles/cgw/cap/cap_96972.jpg

October 1983 For Star Wars: Episode VI: Return of the Jedi, Lucasfilm's Computer Division creates one effect: a wire-frame "holographic" model of the Death Star under construction. The division evolves into two groups, Games and Pixar. Pixar is sold to Steven Jobs in 1986. (Premiere: 5/83)

http://images.pennnet.com/articles/cgw/cap/cap_96973.jpg

July 1984 For The Last Starfighter, Digital Productions creates CG spaceships, planets, and high-tech hardware that are integrated into live-action scenes.

It is unusual that the CG tools are used for images that aren't supposed to look computer generated. (Premiere: 7/84)

http://images.pennnet.com/articles/cgw/cap/cap_96975.jpg

May 1986 Arguably, the first 3D character in a feature film is a knight who leaps out of a stained glass window in Young Sherlock Holmes. The Pixar group at Lucasfilm uses new motion blur technology and its 32-bit RGBA paint system to create the effect. (Premiere: 12/85)

http://images.pennnet.com/articles/cgw/cap/cap_96978.jpg

October 1989 Using Alias/2 animation software running on SGI's 4D/120 workstation, Pixar's RenderMan running on a Pixar Image Computer, and data from Cyberware's scans, ILM creates the water tentacle for The Abyss. Storyboards are scanned into SuperMac's PixelPaint and edited with not-yet-released software called Photoshop. (Premiere: 8/89)

http://images.pennnet.com/articles/cgw/cap/cap_96979.jpg

August 1990 To animate these skeletons for Total Recall, Metrolight Studios tries using motion capture on set, but this first attempt to use mocap in a film fails. Instead, the studio rotoscopes film shot in low light during the capture. The visual effects win a special achievement Academy Award. (Premiere: 6/90)

http://images.pennnet.com/articles/cgw/cap/cap_96976.jpg

October 1991 Director Jim Cameron develops Terminator 2, which doesn't simply include CG but relies on it for the liquid-metal, shape-shifting T-1000 character, which is modeled, animated, rendered, and morphed at ILM. (Premiere: 10/91)

http://images.pennnet.com/articles/cgw/cap/cap_96981.jpg

December 1991 Although 3D graphics debuted in earlier Disney animations, Beauty and the Beast is the first in which hand-drawn characters appear in a 3D background. Every frame of the film is scanned, created, or composited within Disney's computer animation production system (CAPS) co-developed with Pixar. (Premiere: (11/91)

http://images.pennnet.com/articles/cgw/cap/cap_96982.jpg

April 1992 To create 20 minutes of The Lawnmower Man's version of VR, Angel Studios, Xaos, Inc., and Homer & Associates use motion capture, particle systems, algorithmic-based paint, and other state-of-the-art techniques running on SGI workstations. (Premiere: 3/92)

http://images.pennnet.com/articles/cgw/cap/cap_96984.jpg

December 1993 When ILM's Dennis Muren convinces Stephen Speilberg to use computer graphics dinosaurs as well as animatronics in Jurassic Park, movies are forever changed. In ILM's 80 effects shots, full-size dinosaurs move freely in background plates, and the first digital double gets lunched. (Premiere: 6/93)

http://images.pennnet.com/articles/cgw/cap/cap_96985.jpg

December 1993 Rather than train a real whale to leap to freedom in the open seas, VIFX inserts a CG whale between shots of animatronics for Free Willy. The CG orca is created with Symbolics software and hardware and rendered with RenderMan. (Premiere: 7/93)

http://images.pennnet.com/articles/cgw/cap/cap_96986.jpg

July 1994 For The Lion King, Disney Feature Animation's CGI department animates crowds of 3D wildebeests and integrates them into painted backgrounds, and Disney unveils its closely guarded computer animation and production system (CAPS), co-developed with Pixar. (Premiere: 6/94)

http://images.pennnet.com/articles/cgw/cap/cap_96987.jpg

July 1994 Rarely have CG effects been used in as lively a way as the Tex Avery-style ones created by ILM for The Mask. The studio helps turn Jim Carrey into a live-action cartoon and does odd things with his dog, too. (Premiere: 7/94)

http://images.pennnet.com/articles/cgw/cap/cap_96988.jpg

June 1995 Casper is arguably the first 3D lead character in a live-action film and definitely the first 3D lead character animated at ILM. ILM creates 200 effects shots for the film, many of which integrate semi-transparent characters into live-action backgrounds. (Premiere: 6/94)

http://images.pennnet.com/articles/cgw/cap/cap_96990.jpg

January 1996 Following the success of the CG dinosaurs in Jurassic Park, ILM is asked to produce numerous realistic CG animals for Jumanji, including monkeys and a lion, which causes the studio to develop custom software to create, animate, and render monkey and lion fur, and long hair for the lion's mane. (Premiere: 12/95)

http://images.pennnet.com/articles/cgw/cap/cap_96992.jpg

August 1996 To create the tornado for Twister, ILM develops a custom interface for Wavefront's Dynamation to generate controllable, rotating funnels of particles, and a special-purpose particle renderer that runs on SGI's Challenge. (Premiere: 5/96)

http://images.pennnet.com/articles/cgw/cap/cap_96993.jpg

August 1997 Although the background is a miniature set, the cars are CG. Digital Domain creates digital effects for The Fifth Element with Power Animator, Softimage 3D, Prisms, RenderMan and, for LeeLu's reincarnation, data from the Visible Human project. (Premiere: 5/97)

http://images.pennnet.com/articles/cgw/cap/cap_96994.jpg

September 1997 Many of the 218 visual effects shots created at Tippett Studios for Starship Troopers are filled with crowds of huge, evil, alien bugs. The team uses Softimage 3D, Dynamation, Amazon 3D Paint, and Photoshop. Also, a custom "Bug Input Device" allows puppeteers to animate the 3D warrior bugs in real time. (Premiere: 11/97)

http://images.pennnet.com/articles/cgw/cap/cap_96995.jpg

January 1998 Digital Domain, the lead studio on Titanic, breaks new ground by putting thousands of digital people, animated with the help of motion capture, onboard the ship. The studio also creates CG set extensions and digital water. The film receives an Oscar for visual effects, and goes on to earn more money than any other film to date. (Premiere: 12/97)

http://images.pennnet.com/articles/cgw/cap/cap_96996.jpg

July 1998 By becoming the second studio to create a successful feature animation with 3D computer graphics, PDI helps ensure the future of the new medium. For Antz, the studio creates new crowd and water-simulation systems and muscle-based facial animation tools. (Premiere: 10/98)

http://images.pennnet.com/articles/cgw/cap/cap_96997.jpg

November 1998 With A Bug's Life, Pixar shows the world that its first 3D animated feature, Toy Story, wasn't a fluke. Like the first, this Disney/Pixar film is also a box office hit. For this film, the technical team develops new lighting techniques and methods for defining, painting, and rendering surfaces that help give the bugs and their world a brilliant, translucent look. (Premiere: 11/98)

http://images.pennnet.com/articles/cgw/cap/cap_96998.jpg

May 1999 When the effects team at Manex Visual Effects creates this "Bullet Time" shot for The Matrix, little do they know it will inspire similar effects in dozens of future films and help this film win an Oscar for best visual effects. To freeze time for the shot, the team uses an array of cameras; for background buildings, they use image-based modeling. (Premiere: 3/99)

http://images.pennnet.com/articles/cgw/cap/cap_96999.jpg

May 1999 To create The Mummy's Imhotep, ILM uses a combination of models and displacement maps that carve the geometry. To move him, the team uses a Vicon8 motion capture system and key frame animation; procedural animation manages the internal organs and dangling bits of decayed flesh. (Premiere: 5/99)

http://images.pennnet.com/articles/cgw/cap/cap_96000.jpg

January 1999 In Mighty Joe Young, the gorilla himself is at times a CG character created at ILM or Dream Quest Images. (The shot above is created at ILM.) Both studios develop custom hair-raising software for the film: Dream Quest's code plugs into Maya; ILM's works with its in-house CARI. (Premiere: 12/98)

http://images.pennnet.com/articles/cgw/cap/cap_96001.jpg

June 1999 To help create Star Wars Episode I: The Phantom Menace, ILM fashions 1900 visual effects shots for director George Lucas, many of which include such CG main characters as Jar Jar Binks and Boss Nass, shown here. (Premiere: 5/99)

http://images.pennnet.com/articles/cgw/cap/cap_96004.jpg

July 1999 Using Disney's Deep Canvas, background artists painted on 2D plots of 3D scenes. Information about each brushstroke was stored and later applied to positions in 3D space, giving the title character in Tarzan ample room to swing through a painterly 3D jungle. (Premiere: 6/99)

http://images.pennnet.com/articles/cgw/cap/cap_96003.jpg

July 1999 Some 10 visual effects companies, including Digital Domain, Manex Visual Effects, and Mass Illusions, help create the complex, non-photorealistic, and often surrealistic effects for What Dreams May Come, which wins an Oscar for best visual effects. (Premiere: 9/98)

http://images.pennnet.com/articles/cgw/cap/cap_96006.jpg

November 1999 For Warner's cel animation The Iron Giant, a 3D CG hero is created in Maya, rendered as a cartoon in RenderMan, and then imported into Cambridge Animation Systems' Animo. (Premiere: 7/99)

http://images.pennnet.com/articles/cgw/cap/cap_96008.jpg

November 1999 Having created the first feature animation with 3D computer graphics in 1995-the wildly successful Toy Story-Pixar then creates a wildly successful sequel, Toy Story 2, which has an emotionally deeper story, 10 times the visual complexity of the first film, and improved human characters. (Premiere: 11/99)

http://images.pennnet.com/articles/cgw/cap/cap_96005.jpg

December 1999 Surprisingly, the first photorealistic CG star in a live-action film is not a man but a mouse acting like a child. Imageworks creates the furry star of Stuart Little and costumes him with the help of Maya Cloth. (Premiere: 12/99)

http://images.pennnet.com/articles/cgw/cap/cap_96009.jpg

May 2000 Putting an entire cast of 3D animated characters in a world fabricated from live-action backgrounds has not been attempted before Disney Feature Animation creates a 3D animation facility to do just that for Dinosaur. To assemble the dinosaurs and lemurs, 15 software engineers write 450 programs; more than 120 are plug-ins to Maya and Softimage 3D. (Premiere: 5/00)

http://images.pennnet.com/articles/cgw/cap/cap_96007.jpg

June 2000 To transplant the moose and squirrel into The Adventures of Rocky and Bullwinkle, a live-action film, ILM renders 3D characters with a 2D cartoon look while keeping their dimensionality, and finds ways to animate the oddly shaped, formerly hand-drawn characters. (Premiere: 6/00)

http://images.pennnet.com/articles/cgw/cap/cap_97010.jpg

July 2000 For Hollow Man, Sony Pictures Imageworks creates a CG clone of Kevin Bacon and causes its skin, muscles, organs, and bones to erode, layer-by-layer, as it becomes invisible. (Premiere: 7/00)

http://images.pennnet.com/articles/cgw/cap/cap_97011.jpg

July 2000 Without CG water, it would be impossible to suggest the violence of The Perfect Storm. The effects team at ILM considers the movement of light through a drop of water, generates various types of foam and spray, reproduces the movement of ocean swells and 100-foot waves, and creates CG boats, planes, and digital doubles. The film receives a visual effects Oscar nomination. (Premiere: 6/00)

http://images.pennnet.com/articles/cgw/cap/cap_97012.jpg

December 2000 Disney's The Secret Lab creates one spotless digital Dalmatian named Oddball, several spotted CG pups, and wipes the spots off real pups digitally for the film 102 Dalmatians. (Premiere: 12/00)

http://images.pennnet.com/articles/cgw/cap/cap_97013.jpg

December 2000 Putting Dr. Seuss's How the Grinch Stole Christmas onto the big screen entails creating CG landscapes and set extensions for the live-action film. Using Houdini, Maya, and RenderMan, Digital Domain also sends a CG sleigh rocketing down a CG mountain and helps populate Who-ville with digital Whos. (Premiere: 11/00)

http://images.pennnet.com/articles/cgw/cap/cap_97014.jpg

April 2001 Winner of the first Oscar for best animated feature, DreamWorks/ PDI's irreverent comedy Shrek sends its stars, a cartoony donkey, a story-book princess, and the ogre Shrek on a quest through finely detailed CG landscapes. A gigantic box-office hit, the fractured fairy-tale is PDI's second 3D feature animation. (Premiere: 4/01)

http://images.pennnet.com/articles/cgw/cap/cap_97016.jpg

June 2001 By creating CG planes, battleships, smoke, set extensions, water, tracer fire, and digital sailors, ILM simulates the bombing of Pearl Harbor, using new rendering techniques and rigid body simulations for the movie Pearl Harbor. (Premiere: 5/01)

http://images.pennnet.com/articles/cgw/cap/cap_97015.jpg

August 2001 Although it fails commercially, Square's ambitious Final Fantasy, which features the first cast of photorealistic digital actors, stirs the imagination of the press and CG community. (Premiere: 7/01)

http://images.pennnet.com/articles/cgw/cap/cap_97018.jpg

October 2001 For Monsters, Inc., Pixar's fourth 3D feature and big hit, the animation studio's new simulation engine makes it possible to put a blue-haired monster in nearly every frame of the film. (Premiere: 10/01)

http://images.pennnet.com/articles/cgw/cap/cap_97017.jpg

December 2001 By creating thousands of warring, Uruk-hai, a Cave Troll, a fiery Balrog, digital doubles, the Mines of Moria, and other CG effects for Lord of the Rings: The Fellowship of the Ring, Weta Digital helps the film version of Tolkien's book win an Oscar for visual effects. (Premiere: 12/01)

HISTOIRE DE INFOGRAPHIE 1980-1989"

Durant les années 1980 au début des années SIGGRAPH commençait à vraiment décoller. Catmull explique: «SIGGRAPH est une très bonne organisation. Il était fortuite d'avoir les bonnes personnes faire les bonnes choses au bon moment. Il est devenu l'une des meilleures organisations où il ya beaucoup de partage et de beaucoup d'ouverture. Cours des années, elle a généré une énorme quantité d'excitation et c'était une façon d'obtenir un groupe de personnes de travailler ensemble et de partager des informations, et c'est toujours le cas aujourd'hui. "

Lors de la conférence SIGGRAPH 1980 un film étonnant intitulé «Libre vol» a été présentée. Il avait un ordinateur généré vol à grande vitesse à travers montagnes escarpées fractales. Un programmeur du nom de Loren Carpenter de The Boeing Company à Seattle, Washington avait étudié la recherche de Mandelbrot, puis modifié pour simuler réalistes montagnes fractales.

Carpenter avait travaillé dans le département de Boeing Computer Services depuis 1966 et était étudiant à l'Université de Washington. À partir d'environ 1972, il a commencé à utiliser la bibliothèque d'ingénierie de l'Université de suivre les documents techniques sont publiés sur l'infographie. Il a finalement fait son chemin dans un groupe de Boeing qui travaillait sur un système de dessin assisté par ordinateur. Cela a finalement obtenu l'accès à des graphiques par ordinateur. Travailler là-bas avec d'autres employés, il a développé des algorithmes de rendu différents et publié des articles sur eux.

Dans les années 70 en retard Carpenter a été la création de modèles 3D rendus de modèles d'avions et il voulait des paysages pour aller avec ses avions. Alors il lu le livre de Mandelbrot et a été immédiatement déçu quand il a constaté que les formules ne sont pas pratiques pour ce qu'il avait en tête. Autour de ce temps "Star Wars" a été libéré et est un grand fan de l'Carpenter imagination rêvait de créer un certain type de paysage exotique. Ce poussé à le faire réellement, en 1979, il eut une idée sur la façon de créer un terrain fractal dans l'animation.

Lors d'un voyage d'affaires à l'Ohio State en 1979, Carpenter a couru dans une personne qui connaissait quelques personnes dans le domaine de l'infographie, y compris des gens comme Ed Catmull. Il a expliqué comment Catmull venait d'être embauché par George Lucas pour mettre en place un laboratoire de Lucasfilm. Carpenter a été immédiatement intéressé, mais n'a pas voulu envoyer son curriculum vitae encore, parce qu'il travaillait encore sur son film de montagne fractale. "Au moment où ils devenaient reprend assez pour tuer un cheval», explique Carpenter.

Carpenter poursuit: «J'ai voulu montrer que ces images (fractale) ne serait pas seulement bon, mais bien aussi animer. Après avoir résolu les problèmes techniques, j'ai fait le film, a écrit un article pour le décrire et fait un tas d'images fixes . Il m'est arrivé d'être sur l'équipe A / V du SIGGRAPH 1980, si une de mes photos a fini sur un A / V T-shirt. J'ai eu cette campagne pour devenir aussi visible que possible parce que je voulais travailler chez Lucasfilm et quand J'ai montré mon film, les gens de Lucasfilm étaient là dans l'auditoire. Ensuite ils ont parlé à moi et m'a dit: «Vous êtes, nous vous le voulez." Plus tard, en 1981, Carpenter a écrit le premier moteur de rendu pour Lucasfilm, appelé REYES ( Tout ce que vous rend jamais vu). REYES finirait par se transformer en moteur de rendu Renderman et aujourd'hui, Carpenter est toujours avec Pixar.

Turner Whitted a publié un article en 1980 sur une nouvelle méthode de rendu pour simuler des surfaces très réfléchissantes. Connu aujourd'hui comme Ray Tracing, il rend l'ordinateur tracer chaque rayon de lumière, à partir de l'arrière perspective du spectateur dans la scène 3D aux objets. Si un objet se trouve être réfléchissant, l'ordinateur suit que le rayon de la lumière qui rebondit sur l'objet jusqu'à ce qu'il frappe quelque chose d'autre. Ce processus se poursuit jusqu'à ce que le rayon de lumière frappe un opaque non réfléchissant de surface ou il va tirer au large loin de la scène. Comme vous pouvez l'imaginer, le lancer de rayon est extrêmement intensif de calcul. Tant et si bien que certains programmeurs d'animation 3D (tels que le Groupe Yost qui a créé le studio 3D) de refuser de mettre tracé de rayons dans leur logiciel. D'autre part, le réalisme qui peut être réalisé avec le lancer de rayon est spectaculaire.

Autour de 1980, deux individus, Steven Lisberger, un animateur traditionnel, et Donald Kushner, un distributeur avocat-tourner-film décidé de faire un film sur un monde fantastique dans un jeu vidéo. Après avoir établi une présentation, Lisberger et Kushner a cherché le soutien des sociétés cinématographiques majeurs autour de Los Angeles. À leur grande surprise, c'était Tom Wilhite, un chef de la nouvelle production de Disney, qui les a abandonné l'idée. Après de nombreuses présentations à d'autres cadres de Disney, ils ont reçu le «OK» de Disney pour continuer.

Le film, intitulé «Tron», devait être une fantaisie sur le voyage d'un homme à l'intérieur d'un ordinateur. Il a appelé à près de 30 minutes de films de haute qualité graphique d'ordinateur, et a été une tâche ardue pour ordinateur studios de graphisme à l'époque. La solution réside dans le fractionnement des séquences diverses et les affermage à différents studios d'infographie. Les deux grands studios étaient Triple I et MAGI (Mathematical Applications Group Inc.) Ont également participé ont été NYIT, Effets numériques de New York et Robert Abel & Associates.

L'imagerie générée par ordinateur pour "Tron" était très bon mais malheureusement le film dans son ensemble était très mauvaise. Disney avait coulé environ 20 millions $ dans l'image et elle a bombardé au box-office. Ceci, si quoi que ce soit, a eu une influence négative sur Hollywood vers l'infographie. Triple j'avais créé infographie pour d'autres films tels que Looker en 1980, mais après «Tron», ils ont vendu leur ordinateur graphiques opération. Démos et Whitney a quitté pour former un nouvel ordinateur entreprise graphique appelé Digital Productions en 1981.

Digital Productions venait a commencé alors ils ont posé leur premier contrat cinématographique majeur. Il s'agissait de créer des effets spéciaux pour un film de science-fiction appelé "The Last Starfighter". En Starfighter, cependant, tout le monde fait en sorte que l'histoire était assez bon avant de générer des images de synthèse.

Digital Productions investi dans un Cray X-MP supercalculateur pour aider à traiter les images d'infographie. Les effets eux-mêmes étaient très impressionnants et photo-réaliste mais le film a coûté 14 millions de dollars à faire et que rapporté environ 21 M $ - assez pour classer comme un "B" film de qualité selon les normes Hollywood - il n'a toujours pas Hollywood s'asseoir et prendre note des infographie.

Carl Rosendahl a lancé un ordinateur studio graphique à Sunnyvale, en Californie, en 1980, appelée Pacific Data Images (PDI). Rosendahl avait tout juste diplômé de l'université de Stanford avec un diplôme en génie électrique et pour lui, l'infographie est la solution parfaite pour sa production carrière intérêt télévision et l'ordinateur. Un an plus tard, Richard Chuang, un des partenaires, écrit un code de rendu anti-aliasing, et les images obtenues a permis la clientèle de PDI à augmenter. Alors que d'autres studios d'infographie se concentraient sur le film, PDI centré uniquement sur le réseau de télévision ID, tels que les ouvertures pour le cinéma de la semaine-programmes. Cela leur a permis de se tailler une niche pour eux-mêmes. Chris Woods mis en place un service d'infographie en 1981 à R / Greenberg Associates à New York. En Août 1981, IBM a présenté son premier ordinateur personnel, l'IBM PC. Le PC d'IBM, bien que n'étant pas l'ordinateur le plus avancé technologiquement personnelle, semble rompre PC dans le monde des affaires d'une manière sérieuse. Il utilise le processeur Intel 16 bits, 8088, un microprocesseur et a offert dix fois la mémoire d'autres systèmes informatiques personnels. Dès lors, les ordinateurs personnels sont devenus des outils graves que les affaires nécessaires. Avec cette nouvelle attitude envers PC est venu ventes considérables que les ordinateurs répartis à travers le pays dans pratiquement toutes les entreprises.

Une autre étape importante dans les années 1980 pour l'infographie a été le fondateur de Silicon Graphics Inc (SGI) par Jim Clark en 1982. SGI a concentré ses ressources sur la création des hautes performances graphiques des ordinateurs disponibles. Ces systèmes proposés intégré des capacités graphiques 3D, haute vitesse RISC (Reduced Instruction Set Chip) et les processeurs symétriques (processeurs multiples) architectures. L'année suivante, en 1983, SGI a lancé son premier système, l'IRIS 1000 terminal graphique.

En 1982, Lucasfilm a signé avec Atari pour une première en son genre venture entre un studio de cinéma et de jeux vidéos. Ils ont prévu de créer un jeu vidéo à domicile fondé sur les succès des films "Les Aventuriers de l'Arche Perdue" Ils ont également fait des plans pour développer des jeux d'arcade et des logiciels ainsi. Certains des jeux de Lucasfilm inclus PHM Pegasus, Rift Koronis, Labyrinthe, Ballblazer, de sauvetage et sur Fractalus flotte de grève. Ils ont également développé un jeu en réseau appelé Habitat qui est encore très populaire au Japon. Aujourd'hui, la division de Lucasfilm LucasArts crée les jeux vidéo et une forte de l'utilisateur de l'infographie 3D.

En 1982, John Walker et Dan Drake avec onze autres programmeurs établi Autodesk Inc AutoCAD Ils ont sorti la version 1 pour S-100 et Z-80 ordinateurs basés au COMDEX (Computer Dealers Exposition) cette année-là. Autodesk AutoCAD Expédié pour l'IBM PC et Victor 9000 années computersthe personnelle suivante. A partir de 1983, leurs ventes annuelles passerait de 15.000 dollars à 353,2 millions de dollars en 1993 et ??ont contribué à déplacer l'infographie dans le monde des ordinateurs personnels.

Chez Lucasfilm, les effets spéciaux pour le cinéma ont été assurées par The Industrial Light and Magic (ILM) de division, mais au début ils ne voulaient pas grand-chose à voir avec l'infographie. Catmull, explique: «Ils ont considéré ce que nous faisions était trop faible d'une résolution pour le cinéma. Ils ont estimé qu'il n'avait pas la qualité, et ils n'étaient pas vraiment des croyants en elle. Il n'y avait pas une relation antagoniste entre nous, nous s'entendait bien, il était juste qu'ils n'ont pas vu l'infographie comme étant à leur niveau. Cependant, comme nous l'avons développé la technologie que nous avons fait faire en deux tranches comme la projection Étoile de la Mort pour 'Le Retour du Jedi. C'est seulement un seul effet spécial mais il est sorti en regardant une grande. " Pour "Retour du Jedi" en 1983, Lucasfilm a créé un fil de fer "hologramme" de l'étoile de la mort en cours de construction protégé par un champ de force pour une scène.

La division d'infographie de Lucasfilm a ensuite offert d'effets spéciaux tournés pour le film "Star Trek II:. The Wrath of Khan" Il y avait un effet qui aurait pu être fait soit traditionnellement, soit avec CGI. Le scénario initial prévoyait que les acteurs d'entrer dans une pièce contenant un cercueil en forme de cas qui pourrait être considéré un rocher sans vie. Le "Genesis" machine serait alors tirer sur ce rocher et lui donner l'air vert et réaliste. ILM, cependant, ne pas penser que, très impressionnant, ils sont allés à la division d'infographie et demandé s'ils pouvaient générer l'effet de la roche tourner la vie-comme. Puis Alvy Ray Smith revint et dit: «Au lieu d'avoir ce rocher en face de cette boîte de verre pourquoi pas nous faire ce qui est censé être une simulation par ordinateur et un programme montrant comment cela fonctionne pour toute la planète." Ainsi, Smith a eu l'idée originale et ILM a décidé d'y aller. Et ainsi ils ont généré une séquence d'une minute. Il a été largement couronnée de succès, car il était censé être une image générée par ordinateur dans le film, donc il n'a pas besoin d'avoir les dernières touches de réalisme ajouté. L'effet a été rendue sur le moteur de rendu Carpenter nouvelle, REYES. Il s'est avéré être un morceau très, très réussie. Comme Smith dira plus tard: «Je l'appelle« l'effet qui ne meurt jamais »Il est apparu dans trois films successifs de Star Trek, Reebok et autres publicités, la chaîne Sci-Fi, vous le voyez partout." Suite à la «Genèse» effet, Lucasfilm utilisé infographie pour le film "Young Sherlock Holmes" en 1985. Dans ce film, un vitrail vient à la vie de terroriser un prêtre.

Tom Brigham, un programmeur et animateur à NYIT, a étonné le public à la conférence de 1982 SIGGRAPH. Tom Brigham avait créé une séquence vidéo montrant une femme déformer et se transformer en la forme d'un lynx. Ainsi est née une nouvelle technique appelée "Morphing". Il était destiné à devenir un outil nécessaire pour quiconque production de graphiques ou d'effets spéciaux dans le cinéma ou la télévision. Cependant, en dépit de sa réponse impressionnante par les téléspectateurs lors de la conférence, personne ne semblait prêter l'attention technique beaucoup jusqu'à ce qu'un nombre d'années plus tard, en 1987, Lucasfilm a utilisé la technique pour le film "Willow", dans lequel une sorcière a été transformée par une série de animaux dans sa forme définitive en tant qu'être humain.

Scott Fischer, Brenda Laurel, Jaron Lanier avec Thomas Zimmerman a travaillé au Centre de recherche Atari (ARC) au cours des années quatre-vingt. Jaron Lanier, travailler pour Atari en tant que programmeur en 1983, a développé le DataGlove. Un gant pour la main filaire avec commutateurs de détecter et de transmettre à l'ordinateur les mouvements que vous faites. L'ordinateur interprète les données et vous permet de manipuler des objets dans l'espace 3D à l'intérieur d'une simulation informatique. Il a quitté plus tard cette année et s'est associé avec Jean-Jacques Grimaud Ensemble, ils fondent une société 2 ans plus tard, en 1985, appelé VPL Research, qui allait se développer et commercialiser certains des premiers produits commerciaux de réalité virtuelle. Zimmerman, un diplômé du MIT qui avait développé le "Air Guitar" logiciel et un DataGlove qui vous permettait de jouer de la guitare virtuelle, a également rejoint recherche VPL. Zimmerman a quitté en 1989 alors que Lanier est resté avec la recherche VPL jusqu'à Novembre 1992.

AT & T formé la photographie et de l'imagerie électronique Center (EPIC) en 1984 pour créer des produits à base PC vidéographiques. L'année suivante, ils sortent la carte vidéo TARGA pour les ordinateurs personnels. Cela a permis aux utilisateurs de PC pour la première fois d'afficher et de travailler avec des images couleur 32 bits à l'écran. EPIC a également publié le format de fichier Targa TGA pour stocker ces images en couleurs vraies.

Les premières sociétés d'animation tels que Triple-I, Digital Productions, Lucasfilm, etc devaient écrire leur propre logiciel pour la création d'images de synthèse, mais cela a commencé à changer en 1984. A Santa Barbara, en Californie, une nouvelle société a été formée appelé Wavefront. Wavefront a produit le tout premier système commercialement disponibles animation 3D pour fonctionner sur off-the-shelf matériel. Avant de Wavefront, tous les studios d'infographie eu à écrire leurs propres programmes pour générer une animation 3D. Wavefront a commencé une révolution qui allait déterminer l'avenir de tous les studios d'infographie. Toujours dans la même année, Thomson Digital Image (TDI) a été fondé par trois ingénieurs travaillant pour Thomson CSF, une entreprise de défense importante. TDI a publié son logiciel d'animation 3D en 1986.

Jusqu'à ce point, toutes les méthodes de synthèse d'image en usage étaient basées sur la lumière incidente, où une source de lumière brillait directement sur une surface. Cependant, la plupart de la lumière que nous voyons dans le monde réel est diffusée ou la lumière réfléchie par les surfaces. Dans votre maison, vous pouvez avoir des lampes halogènes qui brillent lumière incidente sur le plafond, mais le plafond réfléchit la lumière diffuse au reste de la pièce. Si vous alliez créer une version 3D par ordinateur de la salle, vous pouvez placer une source lumineuse dans la lampe qui brille sur le plafond. Cependant, le reste de la pièce semble sombre, parce que le logiciel est basé sur une source de lumière, la lumière incidente et il se reflète pas sur le plafond et le reste de la pièce. Pour résoudre ce problème, une nouvelle méthode de rendu était nécessaire et, en 1984, Cindy Goral, Don Greenberg et d'autres à l'Université de Cornell a publié un document intitulé, "Modélisation de l'interaction de la lumière entre des surfaces diffuses." Le document décrit une nouvelle méthode appelée radiosité qui utilise les mêmes formules qui simulent la chaleur façon est dispersée dans une salle afin de déterminer comment la lumière se reflète entre les surfaces. En déterminant l'échange d'énergie par rayonnement entre les surfaces 3D des résultats très réalistes sont possibles.

En Janvier 1984, Apple Computer a publié le premier ordinateur Macintosh. C'était le premier ordinateur personnel à utiliser une interface graphique. Le Mac a été basé sur le microprocesseur Motorola et utilisé un seul lecteur de disquette, 128K de mémoire, un 9 "écran haute résolution et d'une souris. Il serait devenu le plus grand non compatible IBM série PC jamais présenté.

Vers 1985, le multimédia a commencé à faire sa grande entrée. L'Organisation internationale de normalisation (ISO) a créé le premier standard pour les disques compacts à mémoire morte (CD-ROM). Cette nouvelle norme a été appelé High Sierra, après la zone à proximité du lac Tahoe, où l'ISO a créé la norme. Cette norme changé plus tard dans la norme ISO 9660. Multimédia est aujourd'hui un marché important pour l'animation 3D par ordinateur personnel. Dans la même année, le commodore a lancé la nouvelle ligne ordinateur personnel Amiga. L'Amiga offre de nombreuses fonctionnalités avancées, y compris un niveau de compatibilité matérielle avec la gamme IBM ordinateur personnel. L'Amiga utilise Motorola microprocesseur 67000 et possède son propre système d'exploitation propriétaire. Prix ??de détail L'unité de base est 1295 $.

Daniel Langlois à Montréal, Canada fondé une société appelée Softimage en 1986. Puis, au début de 1987 il a embauché des ingénieurs pour aider à créer sa vision d'un infographiste 3D programme commercial. Le logiciel Softimage a été libéré au salon SIGGRAPH 1988 et il est devenu la norme animation en Europe avec plus de 1000 installations dans le monde entier d'ici à 1993.

Pendant ce temps, Jim Henson of Muppets renommée approché Brad DeGraf à Digital Productions avec l'idée de créer une marionnette numérique. Henson avait apporté avec lui une unité de Waldo qu'il avait déjà utilisé pour contrôler une de ses marionnettes à distance. Le dispositif a obtenu son nom d'ingénieurs de la NASA ans plus tôt. À leur tour, avait pris le nom d'une des années 1940 Sci-Fi livre écrit par Robert A. Heinlein d'un scientifique handicapés qui a construit un robot pour amplifier ses capacités limitées. Le nom scientifique était Waldo. Ainsi, lorsque la NASA (et plus tard Henson) ont construit leur propre version de l'appareil, elles surnommée Waldo.

Les programmeurs de Digital Productions a réussi à accrocher le Waldo et créer une animation avec lui, mais que l'animation n'a jamais été utilisé pour un projet commercial. Pourtant, l'idée de la Motion Capture est né. Aujourd'hui, la capture de mouvement continue d'être un acteur majeur dans la création d'images de synthèse. Comme pour les productions numériques, à la fois, les choses allaient bien. Ils avaient acheté un Cray X-MP supercalculateur parce que c'était le meilleur ordinateur que l'argent pouvait acheter. Ils ont une interface d'enregistrement du film et équipement de numérisation et ils avaient environ 75 à 100 employés. Ils avaient tout juste de terminer leur projet de film gros poing, "The Last Starfighter" et ils ont fait quelques scènes d'effets spéciaux pour le film 2010 (la surface de Jupiter tourbillonnant). Ils ont également travaillé sur "Labyrinthe" en 1986. Les choses allaient très bien pour les productions numériques, peut-être les choses allaient trop bien.

En 1986, les deux plus grandes maisons d'infographie aux États-Unis ont été rachetés par Omnibus Inc Computer Graphics dans les OPA hostiles, Productions numériques (en Juin) et Robert Abel & Associates Inc (en Octobre). La raison pour cela est important, c'est que les deux sociétés avaient investi massivement dans ordinateurs haut de gamme comme le Cray X-MP (qui a coûté 13 millions de dollars chacun). Cela a mis l'accent sur l'achat de l'argent rapide nombre cruncher peut acheter et ensuite créer votre propre logiciel personnalisé.

Dès que Omnibus a pris le contrôle de Digital Productions des deux co-fondateurs de Digital, John Whitney et Gary Demos, a poursuivi le propriétaire majoritaire de Omnibus, Santa Clara basée Ramtek, pour une partie du produit des ventes. Omnibus ensuite verrouillé tous les deux hors de leurs bureaux à Digital Productions en Juillet de 1986. En Septembre Omnibus obtenu une injonction temporaire contre Whitney et Demos alléguant que Whitney et Demos a fondé une entreprise concurrente, Whitney Productions Demos, et avait embauché au moins trois employés absents chez Omnibus et utilisaient des logiciels et autres informations qui appartenait à Omnibus. L'ordonnance nécessaire Whitney et Démos de revenir temporairement à certains biens Omnibus.

En Octobre, Omnibus acquise Robert Abel & Associates Inc pour 8,5 millions de dollars. Toutefois, en Mars 1987, Omnibus commencé défaut de 30 millions de dollars qu'elle avait emprunté à plusieurs grands créanciers canadiens. La plupart des dettes sont le résultat de l'acquisition de Digital Productions et Robert Abel & Associates à l'année précédente. En mai, Omnibus officiellement fermé et licencié tous ses employés.

Selon Gary Demos, "Abel & Associates a été coulé la même chose que nous. A l'époque, nous étions les deux plus grands studios d'effets, et cet accident fragmenté l'ensemble du secteur. Cela a changé le caractère de l'évolution de l'infographie." Gens talentueux de deux studios trouvé leur place dans les studios d'animation. Jim est allé à Rigel Films Boss, Art Durenski allés dans un studio au Japon, certains sont allés PDI, certains sont allés Philips Interactive Media (alors connu sous le nom Interactive Media américains), d'autres sont allés Rhythm & Hues, MetroLight, et Lucasfilm. Whitney et Demos Demos Productions créée en 1986. Cela a duré pendant deux ans, puis ils se sont séparés et ont formé leurs propres entreprises en 1988. Whitney formée US Labs Animation, tandis que Demos formé démographie.

Dans le domaine de l'informatique personnelle, des logiciels d'infographie était en plein essor. Graphics cristal introduit TOPAS, l'un des premiers programmes de haute qualité d'animation 3D pour les ordinateurs personnels, en 1986. Au fil des ans, des graphiques cristal continuera d'être un acteur majeur dans le domaine de l'animation PC 3D en ligne. L'année suivante, l'image électrique a été fondée et a publié un logiciel d'animation 3D pour les machines SGI et Apple Macintosh. À Mountain View, en Californie, une société de logiciels en 3D a été fondée sous le nom de Octree Software Inc. Plus tard, ils ont changé leur nom de Caligari Corporation et offrent maintenant des programmes d'animation 3D à la fois pour l'Amiga et PC.

En outre, en 1986, infographie trouvé un nouveau lieu, la salle d'audience. Connu sous le nom animation médico-légale, ces infographie sont plus axées sur la précision technique que de l'esthétique visuelle. Technologies Forensic Inc a commencé à utiliser l'infographie pour aider les jurés à visualiser les affaires judiciaires. Encore la création d'animation Forensic aujourd'hui, ils ont été dans les affaires plus que toute autre société. Maintenant, ils utilisent des stations de travail SGI RS-4000 est à travers Moteurs réalité Crimson. Pour leur logiciel 3D qu'ils utilisent exclusivement Wavefront, mais ont quelques interfaces de logiciels de modélisation CAO. Pour l'animation 2D qu'ils utilisent un programme appelé Matador par Parallax.

La même année, Disney a fait sa première utilisation de l'infographie dans le film "The Great Mouse Detective". Dans cette première tentative de Disney à la fusion de l'informatique graphique et dessiner à main cel animation, ils utilisé l'ordinateur pour certains des dispositifs mécaniques comme les engrenages et rouages ??d'horloge. A Computer Generated Imagery (CGI) département a été formé et a travaillé sur des films comme "Oliver et Compagnie", "La Petite Sirène", "Les sauveteurs Down Under», «La Belle et la Bête» et «Aladdin». Avec les résultats très réussis de "Aladdin" et "La Belle et la Bête", Disney a augmenté les animateurs dans le département de CGI à partir de seulement 2 à plus de 14.

A cette époque, chez Lucasfilm, les choses se compliquent un peu. La division graphique d'ordinateur voulu se déplacer vers l'ordinateur faire un film de long métrage d'animation. Pendant ce temps ILM a commencé à s'intéresser au potentiel des effets infographiques. Catmull explique: «Lucas senti cette société devenait un peu trop large et il a voulu restreindre le champ dans ce qu'il faisait en tant que cinéaste. Nos objectifs ne sont pas vraiment compatibles avec le sien." Ainsi, la division d'infographie demandé s'ils pouvaient spin off comme une société distincte et Lucas a accepté de le faire.

Il a fallu un an d'un an d'essayer de rendre cela possible. Catmull poursuit: «Une des dernières choses que j'ai faites a été l'embauche de deux personnes de venir et lancer un groupe CGI pour ILM parce qu'ils ont toujours voulu CGI spéciaux capacités effets. Alors je suis allé à un certain nombre de personnes, mais principalement axé sur Doug Kay et George Joblove. Ils nous ont refusé la première fois. Nous leur avons parlé et les a interviewés et ils ont appelé et a dit: «Nous avons décidé de ne pas venir, parce que nous avons notre propre société. Alors, j'ai mis en bas du téléphone et de la pensée "putain je dois continuer à chercher." Puis, cette nuit-là, j'ai appelé à nouveau, et dit: «Doug, tu es fou! C'est la chance d'une vie! Une erreur s'est produite lors de l'entrevue. Reviens ici et nous allons faire cette chose de nouveau." Il a dit: «OK! alors je lui ai apporté de nouveau, nous sommes allés à travers tout cela à nouveau, et cette fois, ils ont accepté. "

La division d'infographie de l'ILM scission pour devenir Pixar en 1986. Une partie de l'accord était que Lucasfilm obtiendrait un accès continu à la technologie de rendu de Pixar. Il a fallu environ un an pour séparer Pixar de Lucasfilm et dans le processus, Steve Jobs est devenu l'actionnaire majoritaire. Ed Catmull est devenu président et Alvy Ray Smith est devenu vice-président. Pixar a continué à développer leur moteur de rendu, en mettant beaucoup de ressources en elle et finit par le transformer en Renderman.

Créé en 1988, Renderman est un standard pour décrire les scènes 3D. Pat Hanrahan de Pixar a organisé la plupart des détails techniques derrière Renderman et lui donna son nom. Depuis Hanrahan a déménagé à l'Université de Princeton, où il est actuellement professeur associé d'informatique.

La norme Renderman décrit tout ce que l'ordinateur a besoin de savoir avant de rendre votre scène 3D tels que les objets, sources de lumière, les caméras, les effets atmosphériques, et ainsi de suite. Une fois qu'une scène est converti en un fichier Renderman, il peut être rendu sur une variété de systèmes, de Mac à PC aux stations de travail Silicon Graphics. Cela a ouvert de nombreuses possibilités pour les développeurs informatiques en 3D des logiciels graphiques. Maintenant tout ce que le développeur avait à faire était de donner au système de modélisation de la capacité de produire des descriptions Renderman scène compatibles. Une fois qu'il a fait cela, alors le développeur peut regrouper un moteur de rendu Renderman avec le paquet, et ne pas s'inquiéter d'écrire leurs propres rendu. Lorsque le cahier des charges initial a été annoncé, plus de 19 entreprises, il approuvées, y compris Apollo, Autodesk, Sun Microsystems, NeXT, MIPS, le premier, et Walt Disney.

Une partie intégrante de Renderman est l'utilisation de «shaders» ou de petits morceaux de code de programmation pour les surfaces décrivant, effets de lumière et des effets atmosphériques. Shaders de surface sont de petits programmes qui génèrent des textures algorithme basé sur des formules mathématiques. Ces textures algorithmiques sont parfois appelées textures procédurales ou des textures spatiales. Non seulement la texture générée par l'ordinateur, mais il est également généré dans l'espace 3D. Alors que la plupart des techniques de plaquage de texture mapper la texture à l'extérieur "peau" de l'objet, les textures procédurales de fonctionner complètement à travers l'objet en 3D. Donc, si vous utilisez une texture fractale basée sur la procédure de grain de bois sur un cube, et vous coupez une section du cube, vous verriez le grain du bois qui traverse le cube.

La partie intéressante cependant, c'est que Kay et Joblove (avec l'autre spécialiste CGI chez ILM) sont devenus tellement efficaces et le CGI a grandi et grandi jusqu'à aujourd'hui, le groupe CGI est ILM. Ce n'est pas un ministère important, c'est ... ILM. Cela est considéré par certains comme l'un des développements les plus spectaculaires dans l'histoire de l'infographie. Une des raisons du département CGI est devenu si important, c'est qu'il a réussi à ce qu'il comptait faire. Ils fixent des objectifs, des budgets et ils les ont atteints. Pendant ce temps, chez Pixar en Décembre 1988, Steve Jobs a démissionné de son poste de président de Pixar, Ed Catmull et a pris sa place. Charles Kolstad, vice-président de l'entreprise de fabrication et d'ingénierie, est devenu le nouveau président.

Paul Sidlo avait travaillé comme directeur artistique pour Cranston / Csuri Productions de 1982 à 1987 quand il a quitté pour former son propre ordinateur studio graphique, ReZ.n8 (écho prononcé). Depuis lors, ReZ.n8 a continué à être un chef de file dans la production de haute qualité infographie attirer des clients tels que ABC, CBS, Fox, ESPN, NBC avec la plupart des grands studios de cinéma.

Jeff Kleiser avait été un infographiste au Omnibus ont été, il a dirigé l'animation de la fonction film de Disney "Flight of the Navigator". Avant Omnibus Kleiser avait fondé effets numériques et a travaillé sur des projets tels que «Tron» et «Flash Gordon». Comme les choses ont commencé à se désagréger au Omnibus qu'il a fait des recherches sur la capture de mouvement. Puis, quand Omnibus fermé, il rejoint Diana Walczak et formé une nouvelle société en 1987, la Compagnie de Construction Kleiser-Walczak. Leur spécialité nouvelle entreprise était d'animation figure humaine. En 1988, ils ont produit une vidéo d'une minute 3-1/2 musique avec un personnage généré par ordinateur appelé Dozo. Ils ont utilisé la commande de mouvement à l'entrée de tous ses mouvements.

Brad DeGraf, également chez Omnibus, ont uni leurs forces avec Michael Wahrman pour former la société de production DeGraf / Wahrman. Lors de la conférence SIGGRAPH 1988, l'a montré, "Mike the Talking Head", qui était une tête d'ordinateur interactif d'animation en 3D. L'utilisation de commandes spéciales, ils ont pu le faire interagir avec les participants à la conférence. Plus tard DeGraf laisserait Wahrman et d'aller travailler pour les photos Colossal à San Francisco.

Le Groupe d'animation Pixar a fait l'histoire le 29 Mars 1989 en remportant un Oscar à la cérémonie des Oscars pour son court métrage d'animation "Tin Toy". Le film a été réalisé entièrement avec l'infographie 3D à l'aide Renderman de Pixar. John Lasseter a réalisé le film avec William Reeves fournir une orientation technique.

Au SIGGRAPH 1989 à Boston, Autodesk a dévoilé un paquet nouveau PC animation basé appelé Autodesk Animator. En pleine animation 2D et fonctionnalités paquet peinture, animateur était la première étape d'Autodesk dans le domaine multimédia outils. Les logiciels seulement des capacités de lecture de l'animation atteint des vitesses impressionnantes et est devenu un standard pour jouer l'animation sur PC.

En 1989, un film d'aventure sous-marine a été libéré appelé "The Abyss". Ce film a eu un impact direct sur le champ de CGI pour les images animées. James Cameron, réalisateur et scénariste pour Abyss, avait une idée précise en tête pour un effet spécial. Il voulait une créature de l'eau comme un gros serpent de sortir d'une flaque d'eau, s'étendre et d'explorer une plate-forme pétrolière sous-marine et d'interagir avec des personnages vivants. Il a estimé qu'il ne pouvait être fait avec les outils traditionnels d'effets spéciaux et ainsi il a mis l'effet mis aux enchères et les deux Pixar et offre ILM sur elle. ILM a remporté l'enchère et utilisé des logiciels de Pixar pour le créer. Catmull, explique: «Nous voulions vraiment faire cette créature de l'eau pour les Abysses, mais ILM a l'offre, et ils ont fait un excellent travail à ce sujet."

Wavefront Technologies

The following histories of Wavefront and Alias were extracted from corporate historical accounts. In 1984, Wavefront Technologies was founded in Santa Barbara, California by Mark Sylvester, Larry Barels and Bill Kovacs, who wanted to produce computer graphics for television commercials and movies. Since off-the-shelf software was not available at the time, the founders adapted their business plan to develop and market their own graphic software. Contrary to urban legends alluding to the founders' fondness for surfing California beaches, Wavefront was named after the term which describes the front edge of a wave of light.

During the first year, the company's production department, headed by John Grower (now head of Santa Barbara Studios) created opening graphics for Showtime, BRAVO and the National Geographic Explorer, allowing the new software, Preview, to be tuned and to meet the needs of the animators. Preview was then shipped to Universal Studios to be used on the television series Knight Rider and to Lamb and Company for use in pre-visualizing and controlling a motion camera rig.

In 1985 Wavefront exhibited at its first trade show, NCGA in Dallas, Texas, and participated in the SGI booth (with Alias sitting at the next table) and sold Preview to NBC Television in New York, Electronic Arts (London), Video Paint Brush (Australia), Failure Analysis (Mountain View) and NASA (Houston).

In 1987 Wavefront established an office in Brussels. The Belgian government became an investor and provided capital for the purchase by Wavefront of Abel Image Research (AIR) in 1988. Ironically, in many ways AIR (founded in early 1987) was the predecessor of Wavefront, since founder Bill Kovacs was a principal software developer at Abel. This purchase dramatically increased its penetration into the Japanese market. Another irony of this is that one of the largest customers in Japan is Omnibus, who was responsible for buying and closing the Abel operation through the DOA fiasco of 1987.

In 1988 Wavefront entered the desktop market with the Personal Visualizer. This software gave CAD users a point and click interface to high-end photo realistic rendering. Co-developed with Silicon Graphics, this product was eventually ported to Sun, IBM, HP, Tektronics, DEC and Sony. The strategy was to bundle the software with every system sold, then follow with module sales into the installed base. In 1989, they continued this thrust into markets beyond the entertainment industry, moving into the scientific community with the Data Visualizer software. This was a highly flexible product for industrial design applications worldwide and built upon Wavefront's reputation for open systems and fast graphics interaction.

In 1990, Wavefront achieved further expansion in Asia. CSK, exclusive reseller of IBM hardware in Japan, became part owner of Wavefront Japan. In 1991, Wavefront launched the Composer product, which provided advanced image production for creating, enhancing and recording high-impact presentations. Composer would become a standard for professional 2D and 3D compositing and special effects in the feature film and broadcast/video arenas. In 1992 they introduced two new products that would have dramatic impact on the entertainment and effects industry. Kinemation, with SmartSkin™, was a complete 3D character animation system for creating synthetic actors with natural motion and muscle behavior. Dynamation was developed by Jim Hourihan (Jim received his first Academy Award for Technical Achievement for the creation of Dynamation), and was a powerful 3D animation tool for interactively creating and modifying realistic, natural images of dynamic events. The resulting images came from the seamless blending of behavioral data and user-specified information describing shape, color and motion. According to Hourihan, Dynamation was developed from a program called 'willy' that was used by a number of LA effects houses for special effects.

In a bold move that would move Wavefront acquired Thomson Digital Images of France (founded in 1984) in 1993. TDI had innovated in the area of NURBS modeling and interactive rendering and had extensive distribution channels in Europe and Asia. Originally a partner with IBM, TDI also established a commercial production arm, which would later merge with Sogitec to become Ex Machina. TDI's main software product was TDI Explore, a tool suite that included 3Design for modeling, Anim for animation, and Interactive Photorealistic Renderer (IPR) for rendering. (Note: Alias Maya is the result of the merger of the three packages: Wavefront's Advanced Visualizer, Alias's Power Animator, and TDI's Explore.)

In 1994, they partnered with Atari to develop and market GameWare, which became the exclusive game graphics and animation development software for the Atari Jaguar system. Under the terms of the agreement, Atari used GameWare for internal content creation and advised third-party developers to use GameWare as the image and geometry-authoring tool for the new 64-bit Jaguar game system.

Dream Quest Images created over 90 visual effects sequences for the 1994 Crimson Tide movie using Dynamation and Composer. "Since most audience members have never experienced the environment of a nuclear submarine, it was critical to deliver a realistic virtual experience for the viewer," said Mitch Dobrowner, digital department manager at Dream Quest. Wavefront software was also used for other blockbusters, including Outbreak, Aladdin, True Lies and Stargate.

The corporate history of Wavefront Technologies changed dramatically in 1995, with the merger of Alias and Wavefront. On February 7, 1995, Wavefront Technologies, Inc., Silicon Graphics, Inc. and Alias Research, Inc. announced that they entered into definitive merger agreements. The new company's mission was to focus on developing the world's most advanced tools for the creation of digital content. "We created digital skin, then [Alias] did; now they've created digital hair and we're working on digital clothing. With both of us working together, we can attack the bigger technical problems instead of duplicating work," said Mark Sylvester, cofounder of Wavefront.

In April, 2003 the company was renamed Alias.

Alias Research

The founders of Alias, Stephen Bingham, Nigel McGrath, Susan McKenna and David Springer wanted to create an easy-to-use software package to produce realistic 3D video animation for the advertising industry and post-production houses. In 1983 they came up with the idea for a software development effort to achieve this goal. Springer was teaching computer programming for designers at Sheridan College. A rare combination of artist and computer programmer, he had been working independently on software which, by coincidence, resembled McKenna's and Bingham's idea. They quickly brought him on board, and he supervised the project that involved 300,000 lines of code written in C.

Bingham was an unlikely high-tech tycoon. Lacking any formal engineering or technical training, he obtained a Master's degree in Canadian studies from Ottawa's Carleton University. He then served as the director of the city's National Film Theatre from 1980 to 1983, which allowed him to indulge in his love for movies and animation. It was a visit to Hollywood director George Lucas's renowned Industrial Light & Magic animation studios in California that inspired Bingham to form his own animation company.

Susan McKenna first got the computer itch in high school where she took Fortran. The youngest of five children, she was the first woman in the family to want to enter business with an ambition for adventure and risk. Stephen Bingham and Susan McKenna met at Carleton University in Ottawa. She spent 2 1/2 years doing administrative work in audio-video production, raising capital, writing proposals and arranging funding. McKenna approached Nigel McGrath, knowing his reputation in the industry for mixing high technology and graphic design. After high school, McGrath freelanced as a graphic artist and started McGrath & Associates in 1980 to serve major corporate clients. He kept the company while starting Alias, lending the new firm $500,000 worth of computer graphics equipment.

In 1983 they were able to obtain a $61,000 grant from the National Research Council, which, combined with the limited funds of the founders, allowed work to begin on the development of that first code, a huge undertaking that required 36 man-years of programming or 18 programmers writing for two years. Other financial support was gained from the federal government through Scientific Research Tax Credits (SRTCs). The first office, with a rent of $150/month, was located in Toronto in a renovated elevator shaft in the building that would later become the home of CITY-TV."There were strange drafts, cold air would mysteriously fill the room, like we were in a scene from Spielberg's Poltergeist," said Susan McKenna. In 1984 the group decided on the name Alias for their new venture. "I think it was Steve who came up with the name Alias, while we were sitting in a Detroit restaurant during SIGGRAPH", says Nigel McGrath. "You know what we need is an alias", Steve said. "We all clicked at that point because the only paying job we had at the time was for Dave Springer to write an anti-aliasing program for a few users at SGI. That's where the name came from".

Alias unveiled Alias/1 at SIGGRAPH '85 in San Francisco. Alias/1 was unique because it was based on cardinal splines, producing much smoother and realistic lines or surfaces than polygonal lines. The first sale of Alias/1 was to Post Effects in Chicago followed by Editel in New York and Production Masters in Pittsburgh. Also in 1985, Alias signed a landmark deal with GM to design a system incorporating NURBS (non-uniform rational basis spline) technology compatible with GM's spline based CAD (computer-aided design) system. This was the beginning of a business relationship that is still thriving today.

Later that year, the Alias founders approached Silicon Graphics Inc. and suggested that SGIs super-microcomputer could be used for graphic design. Until that point, SGI's hardware had only been used for computer-aided design and computer-aided manufacturing (CAD/CAM). SGI spotted the potential for selling a computer every time Alias sold its software. These new research and development efforts required additional capital to finance the effort. Now that Alias had a big client (GM) more or less in hand, the risk was less in the eyes of potential investors. Early in 1986, Crownx, a venture capital company associated with Crown Life, invested $1.2 million for a 20% stake in Alias.

Although most of Alias sales had been to small production houses, Kraft and Motorola were added to the new client roster in 1986. Moreover, Alias managed to beat two American bidders to supply the $400,000 computer-controlled TV type equipment that would let the world watch what the Hubble Telescope could see from space. 1986 also saw the introduction of the second generation Alias/2. It had the basis spline geometry that led to the creation of the term CAID (computer- aided industrial design) and a whole new market. In 1987 Alias' staff increased to 70 people with the opening of three U.S. sales offices. Concurrently, new venture capital was received from US Investors Greylock and TA Associates.

Exclusive rights to sell Alias/2 into the entertainment markets were passed in 1988 to a single worldwide reseller BTS (now Phillips BTS) who sold Alias/2 with their Pixelerator rendering machine. The Alias sales focus could remain exclusively on design opportunities, where most sales were direct except for 8 resellers in Asia. Alias boasts an impressive list of customers including Timex, Reebok. Oakley, Kenner, BMW, GM, Honda, Volvo, Apple, GE, Motorola, Sony, Industrial Light and Magic, Broadway Video and The Moving Picture Company.

Steve Williams (ex-Alias) went to ILM to help create the pseudopod creature in the 1989 movie The Abyss. Alias 2.4.2 was chosen by Williams for modeling because it was patch-based (B-splines) instead of polygons. The software ran on SGI 4D/70G and 4D/80GT workstations. The Abyss was hailed by the film industry to be one of the most technologically advanced and difficult motion pictures ever filmed. This was proven when ILM received an Academy Award for Best Visual Effects for The Abyss. For the first time, Alias' software got high-profile recognition in movie animation.

In 1989 one of Alias' most high profile industrial clients, Honda was so pleased with Alias technology that it assisted with the development of the newest version of ALIAS/2. Visiting from Japan, a Honda executive commented: "Thanks to Alias' software, we have 20 people doing the work of 200." The 1989 Honda Accord became the first car made by a foreign manufacturer to head the US bestseller list. Many of Honda's cars, like those of BMW and Volvo, were designed on 3D software created by Alias.

Alias raised about US$35 million in their 1990 initial public offering of 2.5 million shares. "US investors understand the value of the investment better. Canadians focus on the trouble with tech stocks and not the money that's been made trading those stocks," said founder Bingham. 1990 also saw the introduction of its third generation software, branded Studio for industrial design and PowerAnimator for the entertainment market. That same year Alias client ILM reaped the highest honors for Best Visual Effects at the Academy Awards. PowerAnimator was used to create Arnold Schwarzenegger's foe, the chromium killer cyborg. Strangely enough, Schwarzeneger who reportedly earned $12 million for that movie, was not the highest paid actor. The liquid metal man's salary worked out to about $460,000 per minute compared to $200,000 per minute for Schwarzeneger.

IBM unveiled a new line of workstations n 1990 and promoted Alias software among sales staff and customers. "Alias is the best worldwide in visualization and animation," said IBM Canada President, John Thompson. Rob Burgess, (now Chairman and CEO of Macromedia) was appointed president of Alias in 1991 with the mission to take the company to the next level of growth. Burgess announced a 3 year strategic alliance with SGI. He also seized the opportunity to purchase the Spacemaker technology and launched UpFront, a low-cost 3D Mac and Windows based package for architects. Alias achieved a major coup by impressing Bill Gates, who mentioned Upfront during a major Microsoft conference as a particularly innovative application under Windows. "In the graphics area, I picked Upfront from Alias Research. It is really an incredible tool for making sure the design is exactly right," said the Chairman of Microsoft. This project would pave the way for the development of Sketch!, positioned as a tool for graphic artists who wanted to do more realistic 3D work than could be done with Adobe Illustrator.

Alias continued to broaden its products range with the acquisition of Sonata, a high-end 3D architectural design and presentation system, from T2 Solutions of the UK. This move gave Alias four divisions covering at least five distinct marketplaces:

Alias Division (industrial design and entertainment),

Style! Division (Upfront and Mac/Win for architects and Sketch! on Mac for illustrators),

Sonata Division (architecture) and

Full Color Division (pre-press and photo retouching).

Under the direction of Burgess, Alias pushed toward its dominance of the entertainment and design markets. In the Spring of 1992, new animation features, primarily an IK (inverse kinematics) solver, were included in the fourth version of PowerAnimator. It was used to create many of the effects in Batman Returns which provided a great testimonial for Alias' return to the entertainment arena at SIGGRAPH '92. They also showed that they hadn't forgotten their design market when they introduced AutoStudio, a package specifically tailored to automotive designers. This continues Alias' focus on the transportation design sub-segment that had done very well for the company.

In 1993 Alias started the development of a new entertainment software, later known as Maya which would become the industry's most important animation tool. Steven Spielberg chose Industrial Light & Magic to provide the visual effects in 1993's Jurassic Park. In turn the animators at ILM picked PowerAnimator as the software of choice to model the huge prehistoric beasts. They delivered the very real looking dinosaurs with PowerAnimator and reaped the Oscar for Best Visual Effects.

Alias worked in close cooperation with Ford to develop StudioPaint, a high-end paint package designed for automotive sketching and rendering with real-time airbrushes. Rollerblade decided to purchase Alias Studio as the CAID tool of choice for their skate design after extensive benchmark testing. "Alias makes it much easier for our designers to sculpt the complex surfaces required to achieve innovative designs while meeting the constraints required for foot comfort," explained Todd J. Olson, senior industrial designer for Rollerblade Inc. Alias signed a landmark agreement with Nintendo in 1994 to be the key software tools provider. PowerAnimator was used to create Donkey Kong Country for Nintendo. As a result of these relationships, Alias dominated the games segment with the largest share of revenue. Alias made headlines in the Globe & Mail for helping car companies save both time and money with its industrial design software. "Detroit's auto makers are able to cut their vehicle's development time to three years from four-plus." Automotive and transportation design companies included: GM, Ford, BMW, Volvo, Honda, Toyota, Fiat, Hyundai, Isuzu, Nissan, Renault, Saab, Subaru, Caterpillar, Kenworth and Mitsubishi. In 1994, Ford became the largest StudioPaint installation in the world when it purchase StudioPaint for its revolutionary Global Studio design facility. StudioPaint allowed designers to create "digital concept sketches" using real-time pencils and airbrushes, and "digital facelift" of existing designs using retouching and real-time image transformation tools.

Alias' profits soared in 1994, primarily because of success in the movie industry. They reported a profit increase of 181% for the second quarter of Fiscal '95. Alias' PowerAnimator was used in five of the biggest movies in the summer of 1994: Forrest Gump, The Mask, Speed, The Flintstones, True Lies and Star Trek: The Next Generation "A Final Unity". Alias customers in special effects included the most prominent studios, such as Industrial Light & Magic, Angel Studios, Digital Domain, Dream Quest Images, Cinesite, Metrolight Studios, Pixar, Sony Pictures Imageworks, Video Image, The Walt Disney Company and Warner Brothers.

On February 7, 1995, Wavefront Technologies, Inc., Silicon Graphics, Inc. and Alias Research, Inc. announced that they entered into definitive merger agreements. As stated above, the new company's mission was to focus on developing the world's most advanced tools for the creation of digital content.

Following are some important events in the continuing history of the new company:

1995 - Alias used in films including Toy Story, Pocahontas, Casper and Golden Eye, and Batman Forever.

1995 - Sega Interactive uses PowerAnimator to create Stars Wars Arcade.

1996 - Alias|Wavefront sets up new offices in Hong Kong, Singapore, Malaysia and Australia.

1996 - Alias|Wavefront's Chris Landreth is nominated for an Academy Award for the short film, The End, to test new features added to the development of Maya including motion capture, facial animation and hair.

1997- Alias|Wavefront reports a 44% increase in its sales over the previous year in industrial design sales and attributes it to the delivery of new advances in CAID technology as well as the release of new product versions: AliasStudio 8.5, Alias AutoStudio 8.5 and Alias Designer 8.5 Its existing customers include Philips design, Daewoo(UK), Rubbermaid, BMW, Renault, Honda and Audi.

1997 - Ford Motor Company chooses AliasStudio to standardize its existing computer-aided industrial design processes. Valued at over $4 million in sales and services, this is one of the largest sales in the company history. As a significant step in the implementation of Ford's C3P program, the purchase of AutoStudio represents the automaker's decision to replace its existing computer-aided industrial design processes and standardize on Alias|Wavefront software. 1997 - Launch of Composer 4.5 featuring motion blur, lens distortion and time warp technology. Effects created with Composer are featured in many Hollywood films including Mars Attacks, Dante's Peak, Casino, Broken Arrow and Waterworld.

1998 - Alias|Wavefront introduces its new 3D flagship product Maya. Maya is a leader in the industry in the following key areas: bringing characters to life, explosive visual effect and system architecture. Representatives from Blue Sky/VIFX, Cinesite, Dream Pictures Studio, Dream Quest Images, GLC Productions, Kleiser-Walczak, Rhonda Graphics, Square, Santa Barbara Studios and Imagination Plantation were among many of the BETA customers to support Maya. Industrial Light & Magic makes a strategic investment in purchasing enough seats of Maya to give technical directors and artists throughout its digital production departments extensive use of Alias/Wavefront's most advanced 3D software.

1998 - Academy Award Plaques are awarded to Bill Kovacs and Roy Hall of Wavefront for the development of Advanced Visualizer. Certificates are awarded to Jim Keating, Michael Warhman and Richard Hollander for their contribution to the development of the Advanced Visualizer. Plaques are also awarded to John Gibson, Rob Krieger, Milan Novacek, Glen Ozymok and Dave Springer for PowerAnimator. Advanced Visualizer is acknowledged by the Academy as the first commercial software package for modeling, animating and rendering adopted into widespread use to create digital images with sufficient quality for motion pictures.

1998 - Chris Landreth produces Bingo, an animated short, to run Maya through its paces, pushing the product to its limits and making sure it lives up to the industry's expectations. In Bingo, Chris Landreth introduces a cast of animated characters who are human-like and disturbingly freakish. Bingo garners international attention and is recognized at film festivals around the world.

1999 - Alias|Wavefront announces industrial design software Studio and DesignStudio for the Windows NT platform. Studio and DesignStudio are the choice of major automotive companies such as BMW, Fiat, Ford, Honda, Italdesign, and Renault.

1999 - Maya Complete incorporates all of the tools and features for world class animation on both IRIX and NT platforms. Maya Complete has been developed to provide state-of-the-art 3D solutions for a more broader, professional market. It includes Alias|Wavefront's award winning 3D modeling, rendering, and animation technology.

1999 - Maya Unlimited, the new graphics production suite for high-end film and video industry is introduced. Maya Unlimited incorporates all of Maya Complete elements plus Maya Cloth, Maya Fur, Maya Live, and Maya Power Modeling. It addresses the unique needs of high-end production houses, by providing them with tools that will help solve complex problems.

1999 - A subset of Maya Complete, Maya Builder was optimized to address the specific needs of level designers and programmers in the game and interactive title development community.

1999 - Alias|Wavefront announces at SIGGRAPH '99 that Maya has been used by Industrial Light & Magic (ILM) in the summer blockbusters Star Wars: Episode I "The Phantom Menace," The Mummy, and Wild, Wild West.

2000 - Alias |Wavefront includes a universal rendering policy for the release of Maya 3 that enables Maya Complete and Maya Unlimited customers to "float" the Maya Batch Renderer across any number of machines on Windows NT, IRIX and Linux platforms.

2000 - Alias|Wavefront announces its intentions in bringing Maya to the Apple® Mac® OS X platform. 2000 - Alias|Wavefront was rewarded with its largest, single software agreement ever from General Motors. The primary software provided is AutoStudio, SurfaceStudio, and StudioPaint.

2000 - Maya was used to create the top four selling December 2000 titles for the PlayStation® 2 console. Electronic Arts (EA) Madden NFL 2001 led the list of top-sellers for December with SSX: Snowboard Supercross (EA) second, Tekken Tag Tournament (Namco) third, and NHL 2001 (EA) fourth. All three nominees for Best Visual Effects in a motion picture used Alias |Wavefront software. The Matrix, (Manex) Stuart Little, (Sony) and Star Wars Episode I: The Phantom Menace, (ILM) were rewarded with nominations for the ground breaking work in film. The Matrix went home with the Oscar.

2001 - In March, Alias|Wavefront ships entire suite of Maya 3D software products to the Red Hat™ Linux® operating system.

2001 - Alias|Wavefront expansion program continues with the release of version of its 3D computer-aided industrial design (CAID) software family, StudioTools, made specifically for the Hewlett-Packard® HP-UX® operating system.

2001 - Maya software played a pivotal role in allowing Square® USA to create a 23-digital-person cast for the much anticipated summer film Final Fantasy.

2001 - The recently unveiled mental ray® for Maya technology ships.

NOTE: In October of 2005 Autodesk announced that it had signed an agreement to acquire Alias. In January of 2006, the acquisition was finalized for US$197M in cash.

Softimage

The following history of Softimage was extracted from corporate historical accounts.

Softimage was founded in 1986 by National Film Board of Canada filmmaker Daniel Langlois. Langlois wanted to create animated films but was dissatisfied with the existing technology, which he felt was insufficient for his needs and designed to be used by computer scientists and technologists. His vision was a software company that addressed the creation of 3-D animation software not only for, but by artists. He felt that the concept marked a fundamental shift in how the industry viewed visual effects creation and generated a new breed of visual effects artists and animators. Other important members of the company included artist Char Davies (Davies left the company at the end of 1997 to pursue her artistic research separately. ) Several important milestones that have influenced the industry have come from the "artist/technology" vision:

the first integrated animation and effects system

the first company to port animation tools to PC (NT)

a broadening of integration to include post-production – with the release of SOFTIMAGE|DS (now Avid|DS) and SOFTIMAGE|XSI

the expansion of animation and effects tool accessibility to the mass-markets in games and web content industries.

The first development effort for the startup company was the Softimage Creative Environment system, with "creative workflow and process integration". In 1987 Langlois and engineers Richard Mercille and Laurent Lauzon began development of the company’s 3-D application software. Creative Environment 1.0 was launched at SIGGRAPH '88. For the first time, all 3-D processes (modeling, animation, and rendering) were integrated. The system featured advanced tools and the first production-speed ray tracer. Creative Environment (eventually to be known as SOFTIMAGE®|3D), became the standard animation solution in the industry.

Over the next several years the development team at Softimage released new versions of the 3-D software that included new innovations in image creation. For example, Creative Environment 1.65 added texture mapping (1989), Creative Environment 2.5 (1991) featured the Actor Module with IK (inverse kinematic), enveloping, and constraints, which enabled animators to combine conventional techniques (such as editing and keyframing) with these new capabilities. The system later won an award from the Academy of Motion Pictures Arts and Sciences. In 1990, the software was sold with an SGI workstation for $65,000.

Softimage went public on NASDAQ in 1992. That same year they started an aggressive acquisition effort, with the inclusion of the EDDIE® software and Painterly Effects. This provided a complete effects generation toolkit with advanced image processing tools for color correction, filtering, rotoscoping, morphing and painting. 1992 also saw an important corporate philosophy realized as Softimage opened their software to third-party developers. The channels performance capture technology offered a new dimension to CG character animation. The technology was used that year to create a memorable spot featuring 3-D dancing cars and gas pumps for Shell Oil.

1993 saw the second public offering of Softimage stock. The expansion of the creative product environment continued, with an agreement between Softimage and mental images that addressed rendering technology. Creative Environment 2.6 was released, featuring file management, metaclay, clusters, flock animation, weighted envelopes, channels, and an expansion of the open system policy. The Creative Toonz 2-D animation package automated the more tedious tasks involved in 2-D cel animation, such as inking-&-painting, while still maintaining the look of hand-drawn images and characters. With computer workstations advancing to be able to handle video, Softimage began the development of Digital Studio, as a step towards integrating the 2D/3D production pipeline. The power of a post-production environment in a software-based solution is consistent with Langlois' original vision for the company. mental ray®, an advanced stand-alone rendering system and Particles, an interactive particle animation system used to create natural phenomena such as clouds, snow, fire, etc. became part of the Softimage stable.

In 1994 Softimage merged with Microsoft Corporation. Creative Environment 2.65 was released which featured expressions, dopesheet, ghost mode, and shape interpolation. The IDEAS (Interactive Developer's Entertainment Authoring Software) with ProPlay and ProPlay Plus was released. This software included Softimage Creative Environment, NURBS support, polygon and color reduction tools, dynamic simulations and inverse kinematics. It also Featured Eddie compositing, video-effects software, distributed ray tracer and the 3-D particles kit. Much of this system was aimed at the evolving game developer market.

Exploiting the power of the Pentium processor, Softimage developed the first high-end product on Irix and Windows NT in 1995. Creative Environment became SOFTIMAGE|3D with a release that featured NURBS modeling, relational maudlin, trimming, instantiation, polygon reduction, tangent-to-path, constraint, Q-stretch, expressions, motion control, Actor, Particle, mental ray rendering, and Metaclay. (Langlois received a Scientific and Engineering Award from the Academy of Motion Pictures Arts and Sciences in 1998 for Actor). User-interface enhancements included hot-key remapping. The SOFTIMAGE|3D "extreme" version included Osmose (virtual reality), the new Virtual Theatre (featuring performance capture and real-time compositing), and mental ray. The SOFTIMAGE|Toonz version 3.5 and SOFTIMAGE|Eddie version 3.2 were also released.

The next two years saw the release of SOFTIMAGE|3Dv 3.5 and SOFTIMAGE|SDK Trance, "Sumatra"(code name) and RenderFarm, and SOFTIMAGE|DS, one of the world’s most comprehensive nonlinear production systems (NLP™) for creating, editing and finishing videos. SOFTIMAGE|DS enabled users to seamlessly integrate picture and audio editing, compositing, paint, image treatment, special effects, character generation and project management into one environment.

In 1998 Avid Technology, Inc. acquired Softimage. The two companies joined forces to develop the next generation tools for digital artists. The Animation Sequencer was introduced, and in 1999 "Sumatra" became the world’s first nonlinear animation editing system and merged all 3-D animation, editing, and composting tasks. In 2000 The Motion Factory, Inc., was acquired. The Fremont, CA-based company specialized in applications for the creation, delivery and playback of interactive rich 3-D media for character-driven games and the Web. In 2001 Softimage entered into an Xbox tools and middleware agreement with Microsoft, and they announced support for Linux. Softimage and Electric Rain collaborated to bring Flash, EPS, AI and SVG exports to SOFTIMAGE|XSI customers. Michael Stojda became the Managing Director of the company in April of 2001 after working at Softimage and Avid and managing a wide range of effects, editing, and finishing products at both companies.

Softimage customers include some of the most prominent production studios, such as Industrial Light and Magic, Digital Domain, Sega, Nintendo, and Sony . They have used Softimage to create animation for hundreds of major feature films ( Jurassic Park, Titanic, The Matrix, Men in Black, Star Wars – the Phantom Menace, Gladiator, Harry Potter, AI: Artificial Intelligence, Pearl Harbor, Queen of the Damned ), games (Super Mario 64, Tekken, Virtual Fighter, Wave Race, NBA Live) and thousands of commercial, corporate and student projects.

Related note:

In the Spring of 1997 through an endowment provided by Daniel Langlois, the Daniel Langlois Foundation was established. It is a private philanthropic organization whose scope of activity is international. The purpose of the Foundation is to further artistic and scientific knowledge by fostering the meeting of art and science in the field of technologies. "The Foundation's mission is to promote contemporary artistic practices that use digital technologies to express aesthetic and critical forms of discourse, to encourage interdisciplinary or multidisciplinary research projects and, in general, to support the development of projects calling for cooperation between people from a variety of fields, such as artists, scientists, and engineers or technologists ," explained the Foundation's Director of Programs, Jean Gagnon.

Side Effects

The following history of Side Effects was extracted from

http://www.sidefx.com

Based in Toronto, Canada, Side Effects Software was established in 1987 by Kim Davidson and Greg Hermanovic, an animation director and programmer respectively. This duo founded their new production/software company on a 3D animation package, PRISMS, which they had acquired from their former employer Omnibus. Side Effects Software developed this procedural modeling and motion product into a high-end, tightly-integrated 2D/3D animation software which would incorporate a number of technological breakthroughs.

Prior to co-founding Side Effects, Hermanovic worked as the Director of Research at Omnibus. When the company went bankrupt in 1987 he teamed up with Director of Animation, Kim Davidson, to buy the rights to the company's PRISMS 3D animation software code. The two partners incorporated Side Effects and set out both to provide content for the Toronto broadcast market and to continue developing PRISMS. In the time that has elapsed since then, the company has turned its attention fully toward development and grown to become one of the world's leading 3D animation software providers. Throughout his career with Side Effects Software, Hermanovic was the driving force behind the implementation of such cutting edge innovations as: procedural modeling, morphing and CHOPs (nonlinear, nondestructive motion editing). Hermanovic was experimenting with C-music and algorithmic composition as far back as 1982. In February 2000, he founded Derivative, Inc. to bring professional special-effects technology to the VJ (visual jockey) scene. Derivative produces innovative tools for designing and performing interactive 3D artworks and live visuals.

Davidson also owns Catapult Productions, which was founded in 1992 for the purpose of creating entertainment using computer character animation. Their specialty is children's content. He graduated from the University of Waterloo with degrees in Architecture and Mathematics and has done extensive graphics programming since 1980. He was the animation director at two large commercial animation houses in Toronto from 1986-1990 and worked on or directed over 300 hundred computer animated pieces in that time.

PRISMS was used extensively to create visual effects for broadcast and feature films in the late '80s and '90s. Early film projects included: Apollo 13; Twister; The Fifth Element, Independence Day and Titanic - the last two having won an Academy Award for Best Visual Effects. The company would continue to develop and support PRISMS until version 7.1 in 1998.

At Siggraph 1996 Side Effects Software introduced Houdini: a next-generation 3D package that would prove to be more sophisticated and artist-friendly than its predecessor. From the following year to the present Houdini has been honored with numerous awards including an annual CGW Innovation Award. Houdini is used around the world to develop cutting edge 3D animation in the film, broadcast and gaming industries. To better serve the needs of its West Coast clients, Side Effects opened a Santa Monica, California-based office in 1995. The positive results can be seen in such recent hit movies such as Fight Club, Hollow Man and X-Men as well as Academy Award winners: What Dreams May Come and The Matrix.

In 1998 the Academy of Motion Pictures Arts and Sciences presented a Technical Achievement Award to Side Effects Software principals Kim Davidson and Greg Hermanovic and programmers Paul Breslin and Mark Elendt, for the development of the procedural modeling and animation components of PRISMS. Whether it's procedural motion/animation, or motion and audio editing, Side Effects Software has proven itself time and again to be an industry innovator. Some of the first breakthroughs that Side Effects included a high-end commercial 3D animation package:

1987 First to put a GUI on a procedural modeling system

1988 First to incorporate an expression language in the user interface

1989 First to add metaballs; First to have a polygon reduction tool (greduce)

1992 First to include a particle system; First to have a morphing package (mojo)

1993 First to have integrated motion capture (moca); First to include time frame sampling (tima)

1995 First to integrate all components (modeling, animation, rendering, compositing) into one executable;First to

support NURBS, polygons, and Beziers as "equal citizens" 1998 First to have audio editing (Chops); First to put a GUI on a procedural particle system; First to introduce hierarchical splines

1999 First to port to the Linux O/S

Autodesk (3D Studio and Autodesk Animator)

Autodesk Inc. was founded in 1982 with a focus on design software for the PC. They went public in 1985. Note: if you really want a trip, read John Walker's online history of Autodesk at http://www.fourmilab.ch/autofile/ told through the letters and memos from and to the inner circle of the company.

Autodesk in 1986 began efforts to develop an animation package. Key developers were Jamie Clay and Autodesk founder John Walker. Autodesk's first animation package was AutoFlix (for use with AutoCAD and AutoShade), and AutoFlix 2.0 which included the Animation Tool Kit for AutoCAD.

In early 1988, Gary Yost left Antic, developers of software for the Atari, to pursue a contract development deal with Eric Lyons and David Kalish at Autodesk and to begin work on Autodesk 3D Studio (code-named THUD after its principal developer Tom Hudson), and Autodesk Animator. Gary brought Jack Powell along, too, and the Yost Group, Inc. was born. (The Yost Group was eventually bought by Autodesk.)

At the 1989 SIGGRAPH in Boston, Autodesk unveiled a new PC based animation package called Autodesk Animator. As a full featured 2D animation and painting package, Animator was Autodesk's first step into the multimedia tools realm. The software-only animation playback capabilities achieved very impressive speeds and became a standard for playing animation on PCs.

This early PC based animation software was used to visualize how nano machines might look. This animation was used in the BBC documentary "Little by Little" and was the first time an Autodesk animation product had been used for broadcast television.

Shortly before the release of the next generation of 3d Studio in 1996, the product MAX, the Multimedia Division of Autodesk was renamed to Kinetix, A Division of Autodesk. MAX shipped as Kinetix 3D Studio MAX. Since its release in 1997, 3D Studio VIZ continues to gain more acceptance within the architectural community for design and visualization. As a result it has shifted more specialized architectural users from MAX to VIZ. 3D Studio VIZ enables professionals in the architectural, land design and mechanical design sectors to design in 3D Studio VIZ and then transfer the images directly into a CAD environment.

Discreet, a division of Autodesk, was established in 1999 after Autodesk acquired Discreet Logic Inc. for US$520M and merged its operations with Kinetix®. Autodesk is the world's leading design and digital content creation resource. The company provides software and Internet portal services to help customers drive business through the power of design. One of the largest software companies in the world, Autodesk helps more than 4 million customers in over 150 countries turn designs into reality.

From an investment banker's research analysis:

"Since its launch, 3D Studio Max has had a phenomenal impact on the 3D animation market. Originally priced much lower than some of its counterparts who’s products ranged anywhere from $10,000 to $45,000, 3D Studio Max was quickly viewed as the attainable solution for professionals that had some price/performance issues. It continues to maintain strong price/performance value for users and the product’s expectancy remains high. One of the key success factors of 3D Studio Max has been the product’s ability to address the needs of a wide range of 3D animation professionals. Of all the animation packages 3D Studio Max runs across more vertical markets than any other package. Its largest user base continues to be within the game development sector. Aside from game development, it is used in film and broadcast, corporate design, industrial design and visualization, educational, forensic, and now Internet design."

One of the keys to this broad base of users is it’s open architecture and support of third party vendors. This has enabled the product to build up over 100 plug-in products for more specialized functionality. Third party developers can develop standalone software modules (plugins) which can interface with the 3D Studio product. One of the more prominent plugins is Character Studio, developed by Susan Amkraut and Michael Girard of Unreal Pictures. Girard and Amkraut were the creators of the famous animation Eurhythmy while they were students at Ohio State, and developed the cult legend "Dancing Baby" as a test of their software. In 2004, Autodesk division Discreet acquired Unreal Pictures.

In January of 2006 Autodesk acquired Alias for $197M in cash, bringing the StudioTools and Maya software products under the Autodesk banner.

 



http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://images.pennnet.com/pnet/misc/blank_spacer.gifhttp://images.pennnet.com/pnet/misc/blank_spacer.gif http://imagec14.247realmedia.com/RealMedia/ads/Creatives/default/empty.gif/0
http://images.pennnet.com/pnet/misc/blank_spacer.gif

http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://imagec14.247realmedia.com/RealMedia/ads/Creatives/default/empty.gif/0
http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://imagec14.247realmedia.com/RealMedia/ads/Creatives/default/empty.gif/0
http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://images.pennnet.com/pnet/misc/blank_spacer.gif
http://imagec14.247realmedia.com/RealMedia/ads/Creatives/default/empty.gif/0