Analyse des solutions techniques mises en œuvres dans les jeux vidéos – 1ère partie

Geoffroy STREIT Année 2001/2002

NFIO promotion 7 5ème année

ETUDE TECHNIQUE BIBLIOGRAPHIQUE

____________________________________________________________________________________________________________________

Analyse des solutions techniques mises en œuvres dans les jeux vidéos

____________________________________________________________________________________________________________________

Préface

Ce rapport a pour but principal de vous présenter les différentes technologies et techniques utilisées dans le cadre des jeux vidéos.

Ceci concerne aussi bien les technologies et techniques mises en œuvres pour créer des jeux vidéos, que celles employées pour y jouer.

Tout au long de ce rapport, je me pencherai essentiellement sur celles qui concernent les domaines de l’optoélectronique, restant plus bref sur le fonctionnement des dispositifs en comprenant le moins (dispositifs mécaniques essentiellement).

Je m’efforcerai de comparer les technologies entre elles.

Ce rapport n’à pas la prétention d’être exhaustif du point vue des technologies présentées ayant déjà été mises en œuvres dans le cadre des jeux vidéos (réalisation ou participation), cependant, il présente l’essentiel de ce qui est ou qui fut le plus utilisé jusqu’à aujourd’hui.

Je tiens à faire remarquer que rares sont les systèmes optroniques assez récents employés pour les interfaces homme / jeux vidéos dont les concepteurs acceptent de donner l’indication.

C’est pour cette raison, et également pour des raisons de nécessité de beaucoup plus de temps de recherche indisponible, que je n’ai fait que mentionner l’existence de beaucoup trop de systèmes sans les expliquer.

Je compte à titre personnel poursuivre cette étude ultérieurement.

Pour informations et suivi, il sera toujours possible de me recontacter par e-mail à l’adresse : hylst@caramail.com.

Sommaire

A – Introduction – 4

B – Le cours de la technologie dans l’histoire des jeux vidéos -5

B – 2 Le marché des jeux vidéos : une valeur devenue sure – 6

B – 3 La continuité de l’évolution des technologies – 9

B – 4 La réalité virtuelle – 10

B – 5 La réalisation de jeux vidéos – 15

C – Interfaces manuelles motrices – 15

C – 1 Clavier – 16

C – 2 Ecran tactile, crayon et pistolet optique – 16

C – 3 Joystick, game/joy-pad, volant et pédaliers – 17

C – 4 Souris 2D/3D et trackball avec ou sans fil – 18
D – Interfaces sensori-motrices – 22

D – 1 Gant de données et exosquelettes partiels – 22

D – 2 Combinaisons de données, exosquelette et motion capture – 29

D – 3 Manette, souris et trackball avec retour de force et retour tactile – 34

D – 4 Interface physiologiques – 35
D – 5 Autres interfaces sensori-motrices spécifiques -36

E – Interfaces de visualisations – 37

E – 1 Techniques de visualisation – 37

E – 1.1 Généralités – 37

E – 1.2 La vision en relief – 37

E – 1.3 Les techniques de visualisation et création de supports vidéos pour la vision en relief – 38
E – 2 Technologies d’afficheurs – 40

E – 2.1 CRT : afficheurs à tube cathodique – 40

E – 2.2 LCD : afficheurs à cristaux liquides – 44

E – 2.3 PDP : afficheur à plasma – 57
E – 2.4 PALC : écrans plasmatron – 59
E – 2.5 Les vidéo projecteurs – 59
E – 2.6 Autres technologies – 62
E – 3 Systèmes de visualisation – 63
E – 3.1 Ecran monoscopique – 63
E – 3.2 Ecran d’ordinateur stéréoscopique – 63
E – 3.2.1 Les écrans auto-stéréoscopiques – 64
E – 3.2.2 Visiocasques – 65
E – 3.2.2 Les écrans stéréoscopiques combinés à des vidéolunettes – 67
E – 3.3 Fenêtres et bureau immersifs, visio-salles et visio-cubes – 69

E – 3.4 Affichage rétinien – 73
F – Capteurs de localisation – 74
F – 1 Principes de positionnements – 75
F – 2 Traqueurs mécanique – 77
F – 3 Traqueurs électromagnétiques – 81
F – 4 Traqueurs accoustiques – 85
F – 5 Traqueurs optiques – 87
F – 6 Comparaisons – 92

G – Autres systèmes – 93
G – 1 Scanners – 100
G – 2 Appareils photo et caméras numériques – 95

H – Conclusion – 103
I – Glossaire – 105

J – Bibliographie – 106

A – Introduction

Depuis les débuts des jeux vidéos, la tendance est à l’accroissement du nombre de jeux vidéos et de leur qualité et réalisme. Ils sont en phase de devenir le mode de jeu le plus communément pratiqué au monde.

Ceci est à la fois la cause et la conséquence de l’évolution des technologies essentiellement dans des domaines que l’électronique, l’informatique, l’optique et la mécanique.

Par définition, un jeu vidéo est, au sens large, un jeu électronique sur un support audiovisuel, dont le fonctionnement peut-être géré par un ordinateur capable de taches diverses, ou par un circuit électronique dédié.

Quand je dis électronique, j’inclue optique, optronique et électromagnétisme.

A partir de là, je vais tacher de retracer les grandes lignes de l’évolution des technologies et de la technique employée dans le cadre du jeu et de la réalisation même des jeux vidéos.

A chaque fois que je mentionnerai une technique ou technologie, je préciserai une page à laquelle elle sera développée.

Les techniques et technologies auxquelles je me référerai seront toutes détaillées une à une et présentées sous forme de chapitre de cette étude à la suite du chapitre suivant.

Remarques :

Tout au long de se rapport, je parlerai de technologies employées non seulement dans le cadre strict des jeux vidéos, mais aussi dans le cadre plus large de la vidéo en général.

En effet, de nombreux jeux comprennent ni plus ni moins que des suites de séquences vidéos interactives, séquences vidéos pouvant aussi bien être le fruit virtuel du travail de graphistes, que des séquences filmées à l’aide de caméras, qu’un mélange des 2 avec des ajouts de graphismes générés par des algorithmes d’image de synthèse.

La lecture de ce rapport est accessible à quasiment n’importe qui .

Si jamais vous trouviez un terme que vous connaissez mal, allez voir dans le glossaire, il devrait y être.

La raison de la taille de ce rapport est, hormis la grande étendue du sujet, mon intérêt pour le sujet , étant moi-même joueur et créateur de jeux, ainsi qu’adapteur de périphériques PC pour d’autres supports.

B – Le cours de la technologie dans l’histoire des jeux vidéos

Ce chapitre décrit de manière chronologique l ‘évolution des solutions techniques et technologies mises en oeuvre dans le cadre des jeux vidéos.

Il est n’est que peu orienté technique, mais pour la description technique des technologies citées dans ce chapitre, il faut se reporter aux chapitres C et suivants.

B – 1 Les débuts

Une des dates caractéristiques des plus anciennes est 1951, année pendant laquelle Ralph Baer de chez Loral Electronics termina de mettre au point le meilleur téléviseur réalisé jusqu’alors.

Baer pense que pour rendre son appareil différent des autres, révolutionnaire, il doit y incorporer de quelque façon que ce soit une possibilité pour l’utilisateur de jouer. Ses employeurs refusent l’idée, et le produit s’avéra n’être finalement qu’un récepteur de télévision comme les autres. Ralph Baer n’abandonna pas. Il fit évoluer son projet qui se matérialisa quelques années plus tard. On peut considérer qu’il est le premier à avoir eu l’idée d’un jeu vidéo.

Il faut attendre 7 années de plus pour voir apparaître ce qui est peut-être la première tentative réussie de création d’un jeu vidéo, avec le travail du physicien Willy Higinbotham, qui programma pour le plaisir un jeu de tennis sur un oscilloscope (ci-contre) mais ne jugea pas opportun d’en déposer l’invention. Plus tard, il fit une version pour écran de télévision.

Quatre ans plus tard, en 1962, Steve Russel crée un jeu nommé Spacewar sur un DEC PDP-1 (programmed data processor 1), le premier mini-ordinateur, qui, pour l’époque, est révolutionnaire par son faible encombrement, son écran vectoriel et ses performances (comparé aux énormes machines de l’époque qui travaillent avec des cartes perforées). Spacewar est dans un sens le premier vrai jeu vidéo de l’histoire à utiliser un ordinateur. Ce jeu combine des graphismes linéiques et des caractères ASCII.

Steve Russel et ses collaborateurs du MIT mettant au point Spacewar

Le début des années 60 voit essentiellement tourner ses jeux vidéos sur des circuits électroniques à transistors conçus à chaque fois spécifiquement pour un seul jeu.

Au fil des ans, la nécessité de réduction de la taille des cartes et des composants se fera sentir et se verra attribuer un budget de recherche, budget qui sera bien rentabilisé.

En 1965, Sutherland met au point le premier système de visualisation stéréoscopique, appelé «ةpée de Damoclès»: on pouvait désormais pénétrer «dans» l’image. De nouvelles interfaces allaient ensuite permettre d’y mettre les doigts et le corps tout entier, et d’avoir en retour des sensations physiques, mais toutes resteront encore au stade de prototype pendant plus d’une dizaine d’année..

En 1968, Douglas Engelbart et son équipe inventent et créent la première souris.

En 1971, Nolan Bushnell, alors l’age de 30 ans, entre à son tour dans l’histoire des jeux vidéos, en concevant la première machine d’arcade, Computer Space, un jeu très proche de Spacewar, puis Pong, jeu de tennis qui sera le premier succès commercial obtenu par un jeu vidéo (ci-contre)

C’est à cette époque, surtout vers la fin des années 70, que les toutes premières consoles de jeu, les 1ers pistolets à cellule photo-électrique (avec lesquels on pouvait directement pointer/tirer sur une zone de l’écran ) et crayons optiques (principe similaire) furent créés et vendues.

Les processeurs, ayant dépassé le stade du PDP-1 se mettent alors remplacer les cartes électroniques spécifiques et l’encombrement des consoles, ordinateurs et bornes fait un grand pas vers des tailles bien plus raisonnables.

Coté écrans, hormis la technologie tube cathodique, on trouvait également les premières versions d’écrans vectoriels dont le flux électronique était programmé suivant un tracé de polygones contrairement au balayage bitmap des autres écrans. Ces écrans prirent plus d’importance 10 ans plus tard, avec les 1ers jeux en 3D filaire et des consoles spécifiques telles que la VECTREX (ci-contre).

L’année 1976, Fairchild Camera & Instruments créa la 1ère console multijeux à utiliser des cartouches, supports insérables où sont stockées les données exécutables et ressources des jeux. Cette console, c’est la Channel F (ci-contre). Ses cartouches ont le même format que les cassettes d’enregistrement 8 pistes.

Une année plus tard ATARI lance sa propre console sur le marché : la VCS qui est disponible à sa sortie à un prix révolutionnaire pour l’époque de 250$ (ci-contre).

L’année suivante voit l’apparition des 1ers trackballs, tablettes graphiques et claviers comprenant l’intégralité des 128 1ers caractères du code ASCII que nous utilisons toujours aujourd’hui se popularisèrent.

En 1978, ATARI se lance dans le marché encore quasi inexistant des ordinateurs destinés aux grand public avec les ATARI 400 et 800 (ci-contre) (ordinateurs 8 bits d’un rapport qualité prix particulièrement considérable pour l’époque)

Cette année et les quelques suivantes connaîtront la multiplication et l’évolution des bornes d’arcades (Space Invaders, Centipede, Frogger, Asteroids, Pac Man, …) qui feront du jeu vidéo une industrie de premier plan.

Les bornes d’arcade de l’époque présentent pour la plupart un écran de type télévision (tube cathodique) et d’une ribanbelle de boutons de direction, action, sélection,… ainsi que des 1ers joysticks (simple manche orientable dans 4 à 8 directions)

A cette époque, fin des années 70 – début des années 80, la puissance classique des processeurs utilisés était de 4 à 8 bits d l’ordre de quelques Mhz seulement. Ils pouvaient être programmés, et utiliser ainsi que coordonner des ressources telles que :

– l’électronique de mémoire (ROM/RAM et mémoire de masse)

– l’affichage

– les dispositifs de contrôles de jeu (clavier,souris/trackball, joy-stick/pad, volant, pistolet, crayon optique, tablette graphique)

– le circuit sonore dit de type soundchip pour l’époque (son généré par des circuits électroniques et non ‘replay’ de données digitalisées)

– et souvent bien d’autres unités de traitement spécifique dont la plupart ne virent le jour que plus de 10 ans plus tard : (P)MMU, FPU (unité de traitement des nombres en virgule flottante qui n’eurent leur utilité que plus tard dans les 1er jeux 3D), blitter (accélérateur vidéo), DMA (Direct Memory Access), coprocesseurs arithmétiques, …

Cette à cette époque qu’ATARI lance les 1ers jeux HOLOGRAPHIQUES (!!!) sur console PORTABLE (!!) : la COSMOS, console qui ne resta cependant qu’au stade de prototype (ci- contre).

Et oui ! La console portable, à l’époque encore de trop grande taille pour tenir dans une poche, vit cependant sa taille diminuer en à peine 2-3 ans vers celle des consoles que nous connaissons encore aujourd’hui.

La technologie des écrans de ce genre de consoles, connu quelques afficheurs LED tel que celui de la 1ère console portable à accepter des cartouches (1979):

La console MB microvision

mais, pour des raisons de poids, de résolution, de coût et d’encombrement voulus minimaux s’orienta rapidement vers les technologies des LCD.

Il ne faut pas oublier non plus les jeux électroniques portables bien meilleur marché que les consoles à cette époque, mais de qualité souvent inférieure et dont le hardware était conçu pour un jeu spécifique à chaque fois.

En 1982, une console à cartouches offrant une qualité graphique et sonore bien supérieure à la plupart de la concurrence prend son envol pour le succès.

La popularité des jeux vidéos fait encore un grand pas en avant et de plus en plus de budgets sont libérés pour la création de consoles, ordinateurs plus performants.

En 1983, Cinematronix lance le 1er jeu sur borne d’arcade utilisant la technologie laser disc : Dragon’s lair.

Le jeu vidéo est alors plus vidéo que jeu : si les graphismes sont époustouflants pour l’époque, l’interactivité est encore faible.

Dragon’s Lair

En 1984 sort le Commodore 64, (ci-contre) le 1er micro-ordinateur à écraser aussi largement tout les autres en raison de ses qualités graphiques et sonores remarquables, ainsi que d’une logithèque qui se développera très vite, allant jusqu’à propulser le C64 en tête des ventes d’ordinateurs et surtout à concurrencer puis affaiblir très sérieusement le marché des consoles.

C64

Cet à cet époque que commence à évoluer divers accessoires pour consoles dans le but de faire la différence : joy/game-pad, pistolet, volant et joystick analogique avec toutes sortes d’options manuelles, semi-automatiques et automatiques.

Des recherches sont faites pour des périphériques, interfaces de jeu, apportant une réelle nouveauté, une nouvelle dimension dans l’interactivité des jeux.

En parallèle se développent des technologies autour de ce que l’on appelle la réalité virtuelle. Certains rêveurs se mettent à imaginer des systèmes nous permettant une immersion quasi totale dans des mondes de jeux vidéos.

Il faut remarquer que le marché des jeux vidéos ne suffit pas du tout à lui seul à justifier le développement de la réalité virtuelle.

Les écrans LCD et TCD passent du monochrome à la couleur

Un accessoire interface nouveau sera commercialisé par Mattel : le gant de donnée (ci-contre)

Il permet au porteur d’interagir avec sa propre main dans le monde virtuel du jeu vidéo programmé pour exploiter le gant en question.

Power Glove

Les années 82-84 voient le marché des consoles vidéos chuter et celui des micro-ordinateurs s’élever.

En 1985, Les consoles Famicon, NES et SMS atténuent un peu la crise tandis que coté micro-ordinateur, ATARI sort le ST, 1er ordinateur 16 bit grand public qui va encore faire progresser le marché des jeux vidéos de manière très significative.

B – 3 La continuité de l’évolution des technologies

Suivront très vite d’autres consoles et ordinateurs de plus en plus performants.

L’évolution suit relativement bien la loi de Moor :

Les capacités de traitement des processeurs passent de 16 à 32 bits, puis 64 il y à peine 6-7 ans, pour finir aujourd’hui sur des capacités de 128 et même 256 bits

Devant la complexité, la qualité et la nécessité de gain de temps à la création des jeux, les micro-processeurs ne suffisent toujours pas.

C’est entre autre la raison pour laquelle les unités de traitement spécifiques dont je parlais dans la période du passage des années 70 à 80 se développent de plus en plus. Parmi elle, il y a les DSPs (digital sound/signal processor), unité de calcul pur permettant une quantité d’opération par seconde vraiment phénoménales (supérieures à celles ces micro-processeurs pour un coût donné).

Les ordinateurs se virent donc de plus en plus intégrés pour ne faire qu’un seul et même composant dont on cherche à maximiser la capacité de traitement de commandes.

C’est la course à l’intégration et à la miniaturisation.

Des cartes sonores et graphiques se développent séparément pour des raisons de difficulté d’intégration à l’unité de traitement centrale.

L’ère n’est plus aux jeux 2D d’il y a peine quelques années, mais aux mondes en 3D texturée avec le plus grand nombre possible de polygones, la plus grande fluidité perceptible, la prise en compte du plus grand nombre possible de paramètres physiques.

L’homme cherche à augmenter sans cesse le réalisme des jeux.

Pour cela, il développe des technologies logicielles (moteurs 3D, moteurs fractals, OPEN GL, VRML,…) et matérielles (intégrant le soft en hardware pour un traitement ‘cablé’ de l’information instantané) sans cesse plus évolués.

A présent, voyons un peu l’avancement actuel de la technologie déjà établie sur le marché :

> Coté support de mémoire de masse, les disques durs en sont arrivés à des tailles de 100 Go à des prix très abordables (10 Franc le Go en IDE), la disquette n’est guère plus utilisée et a fait place au CD (de l’ordre de moins de 5 francs les 700 Mo) et au DVD.

> Coté mémoire vive, la SDRAM (mémoire du moment encore pour quelques mois) cotoie le 1franc/Mo.

> La technologie d’afficheur actuellement la plus prometteuse est celle des écrans plasmas permettant les dimensions d’écrans les plus grandes à prix raisonnables

> En ce qui concerne les interfaces de jeu, les dernières technologies ayant eu un réel aboutissement commercial sont les joystick à retour de force, les souris optiques, les souris et trackball 3D.

> Il faut également remarquer l’importance d’Internet : le nombre d’accès Internet dépasse déjà quasiment la moitié du nombre de vente d’ordinateurs fait dans les3 dernières années. Et il faut savoir que si Internet est un outil d’information et communication formidable, il est aussi un moyen de participer à des jeux avec lesquels il est possible de jouer simultanément à plusieurs sur la même partie sans contrainte de proximité spatiale. Il permet aussi de faciliter la tâche des programmeurs (information), de jouer à des jeux on-line sans les avoir sur son propre ordinateur, de télécharger des jeux vidéos, de faire de la publicité pour les jeux vidéo , … Grâce à qui ? Eh bien… à la fibre optique et les techniques de télécom permettant d’augmenter sans cesse la quantité d’information transmise (WDM, TDM, réseaux tout optiques,…).

Les jeux vidéos contemporains, que ce soit sur ordinateur, consoles, ou borne d’arcade, disposent pour la majorité :

> d’une excellente résolution (800-600 et 1024-768 pour les résolution les plus courantes),

> d’un nombre de couleurs suffisant(65k suffisent amplement),

> d’un taux de rafraîchissement supérieur à 50Hz alors que 30 Hz correspond déjà à ce que le cerveau peut vraiment au maximum prendre en compte,

> d’une qualité de son irréprochable pour l’oreille humaine (qualité CD et plus et son 3D).

En fait, on arrive à un stade ou les graphismes et les sons sont déjà très évolués, mais où le réalisme pêche un peu, ce qui n’est quasiment plus du, ni à une limitation de puissance, ni à une limitation logicielle.

Il s’agit pour les concepteurs de machines et de jeux vidéos d’augmenter le réalisme, d’intensifier la sensation de présence du joueur dans son jeu.

On rentre dans le domaine de la réalité virtuelle.

Chronologiquement, la tendance de l’évolution des styles de jeux vidéos à été la suivante :

jeux 2D avec fond fixe en monochrome puis en couleur (années 60/70), jeux 2D avec fond mobile (années 70), jeux de simulation «3D fil de fer» (années 80), jeux de simulation 3D faces pleine (debut années 90), jeux de simulation 3D face plein texturée (fin année 90), jeux de simulation 3D en 3D texturé avec bumpmapping/Z-buffer/lissages Phong et Gouraud améliorés/… (ces 2-3 dernières années).

Quand je parle des jeux de simulation, je l’emploie au sens des jeux en 3D qui permettent une meilleure approche de la réalité, une simulation en sorte.

Quoiqu’il en soit, la réalité virtuelle, restée essentiellement un domaine pour le jeu vidéo accessible quasi uniquement aux salles d’arcades, riches particuliers, et aux professionnels tels que les grandes entreprises de création de jeu, devrait d’ici quelque années s’élever et attaquer le marché des jeux vidéos grands publics.

B – 4 La réalité virtuelle

Howard Rheingold, dans son ouvrage la Réalité virtuelle (1993), définit le monde virtuel comme un monde calculé par «un ordinateur que l’on commande, non pas en écrivant des programmes, mais par des gestes naturels, en le parcourant, en l’explorant du regard et en utilisant les mains pour manipuler les objets qu’il contient».

La réalité virtuelle s’appuie sur un double concept : l’interaction en temps réel avec des objets virtuels, et la sensation d’immersion à l’intérieur de mondes, supports virtuels du jeu vidéo. L’interaction temps réel en réalité virtuelle englobe toutes les opérations de navigation, création et manipulation de données complexes.

L’immersion initialement conditionnée par le visiocasque, connaît un nouvel essor avec la diffusion récente de systèmes de projection sur grands écrans (RealityCenterTM, Responsive WorkbenchTM, CaveTM, etc. ) avec vision en relief, qui donnent l’illusion visuelle (et ou sonore) de faire partie de l’environnement virtuel créé sur l’ordinateur.

La possibilité de créer des images par ordinateur, les images dites de synthèse, avait déjà profondément modifié notre conception de la représentation visuelle. Avec la «réalité virtuelle», l’être humain n’est plus le simple spectateur des images qu’il produit. Il y pénètre et interagit avec l’environnement de synthèse. Grâce au développement des réseaux de télécommunication, il sera bientôt en mesure d’y rencontrer des personnes situées à distance, avec qui il dialoguera et collaborera.

Toutes sortes d’interfaces existent aujourd’hui qui permettent d’éprouver des sensations visuelles, auditives, tactiles et musculaires dans un monde virtuel. Elles sont reliées à un ordinateur puissant, dont la fonction est notamment de calculer l’univers de synthèse, de gérer toutes les interactions entre l’homme et cet univers, et d’actualiser l’ensemble en temps réel.

Quelques ‘jeux virtuels’ utilisant quelques unes de ses interfaces sont déjà commercialisés. Le haut de gamme, les cinémas de simulation ou rides, sont installés dans des parcs à thèmes (Back to the Future/Universal, StarTour/EuroDisney, Luxor/Hotel Luxor de Las Vegas, Métropole Défi/Futuroscope etc.). Mais les rides restent des systèmes passifs, où le spectateur n’interagit pas. Ils existent toutefois des jeux collectifs et interactifs exploitant la base de la dimension de la réalité virtuel : le relief grâce à la stéréoscopie et à une grande, voir totale, immersion visuelle. C’est le cas au Futuroscope, à EuroDisney, ou encore Universal.

Il existe par exemple le premier jeu virtuel interactif que la société américaine Iwerks ai mis sur le marché, le Virtual Adventures : six joueurs peuvent participer à une véritable chasse au trésor sous-marine dans un univers tridimensionnel .

Quand je dis tridimensionnel (3D), je ne fais pas allusion à celle que la plupart des jeux 3D nous suggèrent (images bidimensionnelles (2D) représentant de la 3D en trompe l’œil suggéré par des effets d’ombre et de perspective).

La réalité virtuelle tend à sortir du cadre de l’écran 2D pour aller vers une perception 3D réelle grâce au principe de la stéréoscopie.

Ces 10 dernières années ont vue le développement d’une nouvelle catégorie de jeux d’arcade remplaçant les bornes d’arcades classiques. Les joueurs prennent place (seuls ou à deux) dans des cabines de simulation, connectées au même ‘ordinateur’. Ces jeux (souvent des combats aériens ou des courses automobiles) sont collectifs et interactifs.

Ces cabines ont souvent l’aspect des objets (véhicules essentiellement) simulés virtuellement, et les plus évoluées d’entre elles disposent souvent d’un nombre de degré de liberté assez proche de la réalité, de retour de force, d’une interface d’affichage adaptée (un voiture par exemple).

©PSA Peugeot Citroën

En fait, La première firme à imaginer des centres d’amusement dont la réalité virtuelle serait l’attraction principale est Virtual World Entertainment. Cette société, fondée en 1987, est à l’origine du concept de Battle tech center. Le premier ouvrit ses portes à Chicago en 1990. L’un des jeux présentés fût battle tech où un joueur se retrouve dans un cockpit de type simulateur de vol. Face à un écran vidéo, il peut jouer seul contre des ennemis virtuels ou contre d’autres joueurs, également embarqués dans des cockpits similaires. Modèles 2000sd et 2000su

Une autre société innovante est Virtuality group. Elle proposa en 1990 des stations Virtuality série 1000 qui regroupaient un ordinateur, des logiciels, un visiocasque et un joystick muni de capteurs de position livrés avec les jeux interactifs. Parmi ces jeux, on peut citer Dactyl nightmare (combat dans un monde ressemblant à un tableau de Escher)

Les séries 1000 furent ensuite suivies en 1994 par les séries 2000, (proposant un visiocasque avec capteur de position magnétique et casque d’écoute haute fidélité. Les séries 2000 se déclinent en 2 machines: le modèle SD (Sit Down (ci-contre)) qui ressemble à une cabine de pilotage dans laquelle le joueur s’installe et le modèle SU (Stand Up (plus haut)) où le joueur reste debout et navigue dans un environnement virtuel grâce aux mouvements de son corps. Vendues 150000F, elles proposent de nouveaux jeux comme Zone Hunter ( screenshot), Bounty Goast Ship, Dactyl Nightmare 2, Virtuality boxing ou X-treme Strike.

Une autre installation, le Cybertron(ci-contre), développé par le Cyber Event Group, place le joueur à l’intérieur d’une sorte de gyroscope qui oscille selon 3 axes afin de procurer une sensation de balancement.

Dans le cadre des sensations corporelles impliquant entre particulier le sens du touché et la capacité de motricité, il existe aussi les exosquelettes totaux ou partiels (combinaisons truffées de capteur et de systèmes de retour de force).

Parmi ces ‘exosquelettes partiels’, il y a un qui est plus populaire car plus vendu que les autres (les autres ne sont de toute manière, en général, pas adressé au grand public, mais à des salles de jeu dernier cris ou à de riches particuliers). C’est le gant de données qui fut entre autres commercialisé par Mattel, VPL et IBM.

Ce fut une réalité industrielle du monde des jeux vidéos, même si elle ne fut que d’une bien faible ampleur.

Comme vous l’avez compris, le contact physique, le toucher, le principe de retour de force, de vibration, d’accélération, sont autant d’options qui apportent à renforce à chaque fois la notion de présence du joueur réel dans son monde virtuel.

Dans le cas des bornes d’arcades, les systèmes seraient à traiter au cas par cas.

Mais en ce qui concerne les systèmes pour consoles et ordinateurs grand public, il est important que je donne quelques dates et informations clefs.

Etudions donc la technologie grand public la plus courante, celle du feedback (retour de force tactile ou moteur) pour les périphériques courants tels que souris, trackballs et joysticks.

Commençons par ce point original: la souris peut servir de périphérique de sortie, transmettant des messages tactiles ou moteurs. Dans les années 70, Bliss et ses collègues (1970) développent un périphérique de lecture pour non-voyants (appelé  » Octacon « : il s’agit d’une matrice de 24 X 6 micro-aiguilles qui reproduit la forme exacte des caractères (il ne s’agit pas d’écriture Braille) et sur laquelle le sujet pose le doigt. Après 20 heures d’apprentissage, ils observent des vitesses de lecture allant jusqu’à 70 mots par minute.

Le principe de feedback tactile a été développé en outre pour les `dataglove’: des transmetteurs sont placés au bout des gants afin de fournir au sujet la sensation de saisir l’objet. Toutefois, comme le signalent Akamatsu et ses collègues (1995), au moyen de ces gants, le sujet peut encore passer `à travers’ l’objet, ce qui n’est pas très réaliste.

D’autres systèmes permettent de transmettre des messages tactiles: Logitech a mis sur le marché un joystick qui tremble en cas d’alerte; Akamatsu et ses collègues (1994) décrivent une souris dont le déplacement sur une plaque métallique peut être freiné par des électro-aimants (placés dans la souris et contrôlés par le système): l’intensité de la résistance au déplacement informe l’utilisateur sur la texture sur laquelle le curseur se déplace à l’écran.

Les travaux les plus précis concernent l’utilisation de la souris comme feedback tactile. Dans l’utilisation de la souris, l’espace de déplacement moteur et l’espace de régulation visuelle sont dissociés. Dans la vie quotidienne, selon la tâche que nous réalisons, la vision n’assure que partiellement la régulation du mouvement, l’action motrice étant davantage régulée par des sensations tactiles et kinesthésiques: on peut, tout en gardant les yeux fermés, porter une tasse de thé à la bouche, faire son lacet ou jouer de la guitare, … Dans certains cas, la `préhension’ d’un objet au moyen de la souris implique une forte charge visuelle: c’est particulièrement le cas lorsqu’il faut `sélectionner’ une ligne dont l’épaisseur n’est que de 1 pixel. Gِbel et ses collègues (1995) rapportent des expériences réalisées au moyen d’une souris dotée de quatre éléments `vibrant’, deux éléments placés sur les côtés de la souris, deux éléments placés sous les boutons normaux de la souris. Ces éléments se mettent à vibrer lorsque le curseur approche un objet de l’écran. Ils observent que cette information tactile conduit à une détérioration de la performance pour des tâches dans lesquelles le sujet devait poursuivre un objet à l’écran. Par contre, le feed-back tactile a permis un gain de temps de près de 20% pour les tâches de positionnement d’un objet et de sélection d’un objet (tâches plus fréquentes pour un utilisateur moyen), et ce malgré que les sujets aient disposé d’un faible temps d’apprentissage. Les auteurs concluent que l’efficacité de la souris comme périphérique fournissant un feed-back tactile dépend d’un réglage fin de la relation entre, d’une part, la distance entre le curseur et l’objet-cible, et d’autre part, le signal tactile transmis à l’utilisateur.

Akamatsu et ses collègues (1994) obtiennent des résultats semblables ( gain de temps de 12%) avec un autre feed-back tactile: une petite pointe en aluminium, située à l’intérieur d’un des boutons de la souris, entre en contact avec le doigt lorsque le curseur entre en contact avec un objet. Ils observent que ce gain du temps provient d’une réduction de la distance moyenne entre la position du curseur au moment où le sujet clique et le centre de l’objet: sans feed-back tactile les sujets on tendance à clique au centre de l’objet, avec le feed-back tactile, ils cliquent dès qu’ils `sentent’ l’objet du bout de leur doigt. Notons en outre que, dans une autre étude, Akamatsu et ses collègues (1994) montrent que lorsque le feed-back tactile était combiné à un feed-back sonore et visuel, le gain de temps n’était pas supérieur à l’utilisation du feed-back tactile seul.

Après avoir développé quelques uns des principaux systèmes faisant interagir notre motricité et stimulant nos sens de toucher, et de vue, il me reste à parler des autres sens, soit de l’odorat, l’ouie et le goût (parmi les sens que notre société à déterminés comme exhaustifs (6ème sens mis à part…))..

Mais avant cela, je tiens à présenter les résultats d’une étude d’un certain Morton Heilig sur l’accaparation des sens. L’utilisation moyenne et approximative de nos sens serait représentée par la distribution suivante :

vue : 70% – ouie 20% – odorat 5% – toucher 4% – goût 1%

Je pense qu’il y a à un travail critique d’interprétation de ces résultats un peu simplistes à faire, mais ils nous permettent toutefois de nous faire une idée.

Quoiqu’il en soit, je puis vous dire qu’il existe des interfaces odorantes réalisant le mélange commandé par informatiquement d’un certain nombre de substances odorantes de bases avec des proportions configurable.

Cette interface n’ont toutefois, à ma connaissance jamais été commercialisées dans le cadre de jeux vidéos. En revanche, certaines rares salles de cinéma en sont équipées.

Est il vraiment utile de parler d’interfaces gustatives…

Bien, reste maintenant le 2ème sens le plus important après la vue, soit, suivant les résultats présentés précédemment, l’ouie.

Le porteur d’un casque, immergé dans un environnement virtuel, souhaite légitimement en percevoir les sons, par exemple celui de l’entrechoquement de deux objets ou du rebond d’une balle, comme il les entendrait dans le réel. Un dispositif monophonique ne peut en aucun cas restituer les variations de sonorité, selon que le choc se produit près ou loin de l’utilisateur, à sa gauche ou à sa droite, etc.

L’objectif est de simuler un véritable univers sonore tridimensionnel.

Il implique une étude fine et une modélisation des mécanismes de l’ouïe: il s’agit de tenir compte de la différence de perception de chaque oreille, de la forme de l’oreille externe, du changement de perception en fonction des mouvements de la tête, mais aussi des réverbérations du son sur les parois de l’espace visualisé, lesquelles dépendent, entre autres, de la forme de ces parois et des matériaux qui les composent. Conçu par une équipe de la NASA et aujourd’hui commercialisé, le Convolvotron a été le premier système à permettre ce type de simulation sonore. Les objets virtuels sont affectés d’une source sonore propre. Le porteur du casque, muni d’écouteurs branchés sur le Convolvotron, peut alors entendre les sons associés à ce qu’il voit. Pour améliorer ces systèmes, on cherche aujourd’hui à multiplier les sources sonores (en nombre encore très limité dans les dispositifs existants) et à utiliser des sons préenregistrés et numérisés.

De plus, l’ouie est en partie responsable de notre équilibre et capacité d’orientation.

Des dispositifs matériels de restitution sonores grand public tels que les écouteurs stéréo et son dit 3D existent dans le commerce depuis quelques années, mais il y a du progrès à faire sur le chemin de l’immersion, tant au niveau logiciel que matériel.

Ce qui nous permet de localiser dans l’espace (3D) un son est le fait que l’onde sonore partant de sa zone d’émission ne mettra pas toujours le même temps pour aller jusqu’à notre tympan gauche, que pour aller sur notre tympan droit (principe proche de celui de la vision binoculaire pour la localisation tridimensionnelle d’un détail visuel)

La fréquence, la phase et l’amplitude du son sont ses caractéristiques mono-phoniques / dimensionnelle. Ce qui apporte la vraie stéréo, le son 3D, c’est la différence de marche intra-aurale de l’onde sonore.

Ce son 3D ne peut être reproduit fidèlement, en dehors de la réalité, qu’avec des émetteurs sonores proches des oreilles, et avec un calcul du déphasage du son inter-aural inévitable en fonction de la position et de l’orientation de notre tête dans l’espace par rapport à la localisation supposée de l’émetteur sonore virtuel.

Pour finir, il existe au moins un autre type d’interface, à savoir l’interface thermique.

Ce genre d’interface dite à retour thermique est réalisée grâce à des thermodes constituées d’une pompe à chaleur à effet Peltier, d’un capteur de température et d’un thermocouple capable de répondre en 1/50.de seconde par une variation de 50°C (du moins, c’est ce que font les modèles les plus récents).

Jusqu’ici, je n’ai fait que parler du matériel employé pour JOUER aux jeux vidéos, et non à celui employé pour les créer.

Le chapitre suivant, B -5, devrait y remédier.

B – 5 La réalisation de jeux vidéos

Les techniques de réalisation de jeux vidéos ont également beaucoup évolué depuis les années 60 jusqu’à nos jour.

Dans les années 60, il’ n’y avait quasiment aucun outil pour la réalisation des jeux.

Il s’agissait de programmer directement, en langage machine bien souvent, quand ce n’était pas de la conception directe de carte électronique spécifique (ce qui était très fréquent dans la 1ère moitié des années 60).

Les programmeurs ne disposaient au début que d’un clavier plus ou moins minimaliste (ou simplement de leur matériel de soudure)

Puis ont été développé des applications logicielles visant à leur faciliter leur tache :

– nouveaux langages plus évolués que le langage machine (assembleurs, C, basics, …).

– interfaces de conception de plus en plus ergonomiques

– bibliothèques de macro fonctions pour langages de programmation évolués

– …

Au niveau matériel, il y eu le passage de la création de la carte électronique spécifique, à celle de la programmation de processeurs sans cesse plus évolués (ne serait qu’avec l’accroissement du jeu d’instructions, du nombre de registres et d’unités de traitement spécialisées).

Vinrent ensuite des coprocesseurs évolués et conçues pour effectuer de manière + ou – automatique ce que le programmeur devait programmer avant sur le processeur principal.

Avec la montée en puissance des processeurs compensant la lenteur des langages évolués, la tache du programmeur se voient sans cesse allégée.

La tache des graphistes, quant à elle, fut facilitée avec l’apparition à partir de la fin des années 60 des souris, trackballs, stylos optique et tablettes graphiques.

Plus tard, vers la fin des années 70, on vit le développement des scanners bidimensionnels, à main puis à plat, scanners permettant aux graphistes de numériser leurs dessins papiers puis de les retravailler sur ordinateur (travail moins fastidieux que le dessin direct sur support informatique).

Les appareils photos numériques et les caméras eurent également un rôle similaire, respectivement dans l’acquisition de scènes statique et animées.

En parallèle furent développés de nombreux outils relatifs à la réalité virtuelle.

Des capteurs de localisation (spatiale) furent créés pour être placés sur le visage (masque de donnée) , les mains (gant de données) , le corps tout entier (combinaison de donnée ou exosquelette) , permettant ainsi de reproduire dans les jeux, de manière fidèle à la réalité, les mouvements, non seulement humains, mais animaux, mécaniques, et autres (localisation statique).Notez que l’opération de capture de mouvement (motion capture) est un procédé très utilisé de nos jours aussi bien dans le cadre des films en images de synthèse, ou à effets spéciaux, que de jeux vidéos. Après, ce sont des logiciels adaptés (modeleurs et raytracers) de création, retouche animation 3D qui permettent d’utilisées les mouvements ou positions acquises de la réalité.

Les outils tels que les souris, trackballs et manettes 3D servirent entre autres à faciliter l’utilisation de ces logiciels.

C – Interfaces manuelles motrices

Les interfaces dites manuelles motrices sont les interfaces homme / machine les plus employés, écrans mis à part. Elles sont toutes basées sur une commande par la motricité de la main de l’utilisateur (joueur ou créateur).

Le gant de données en fait partie, mais dispose de facultés non seulement motrices, mais sensori-motrices, d’où sa présence dans le grand chapitre suivant.

Il en est de même pour certains trackballs, souris et joysticks, mais ce ne sont que des cas encore assez peu courant.

C – 1 Clavier

L’instrument de base de tout ordinateur, il est composé d’un certain nombre de touches, à savoir, au minimum, d’un pavé numérique, de l’alphabet entier, de tous les caractères spéciaux présents dans les 128 premiers caractères du codage de caractère informatique officiel et international ASCII, de touches de fonctions, de touches fléchées, puis de quelques autres touches (de contrôle pour la plupart).

Au niveau du traitement des touches frappées, tous les claviers ne sont pas les mêmes :

certains ont leur ACIA et registres de données et contrôles intégrés, d’autre pas.

Via l’ACIA, on peut programmer par exemple un temps de prise en compte d’appui de touche supplémentaire, pour une touche appuyée, volontairement ou non, pendant une longue durée.

Les touches sont en général montées sur des ressorts (en lame ou hélicoïdaux) guidés mécaniquement par une tige en plexi, et provoquant l’ors de leur appui, un contact avec une grille conductrice (circuit ouvert->court circuit).

C – 2 Ecran tactile, crayon et pistolet optique

Ecrans tactiles, pistolets et stylos optiques, tous trois interfaces d’entrée, permettent une désignation directe sur l’écran des objets affichés.

Un écran tactile est un écran classique recouvert par un léger film transparent et doté d’un petit système de localisation du doigt et parfois de son degré de pression. Ce système est surtout utilisé avec des bornes interactives dans des lieux publics. Certaines bornes d’arcades en sont équipées. Cette interface renforce un lien direct entre ce qui est affiché et la main. Par contre, elle pose des problèmes d’entretien, la succession de doigts gras atténue progressivement la visibilité.

Les écrans tactiles à très faible résolution (10×10 à 50×50) sont à mécanisme optique : une grille de faisceaux infrarouge est interrompue par le doigt lorsqu’il touche l’écran. Les écrans capacitifs ont une résolution de l’ordre de 100×100.Ils détectent le changement d’impédance au toucher. Les écrans sonores utilisent la réflexion d’un signal sonore par le doigt et permettent une résolution de l’ordre de 500×500. Certains écrans tactiles peuvent capter la pression du doigt ou du stylet. Tous ces écrans ne peuvent capter qu’une position à la fois, et donnent des valeurs erronées si l’on pose deux doigts sur l’écran, ou un stylet tenu à la main et le poignet. Il en résulte une fatigue d’utilisation rapide et une faible précision. Enfin, comme l’image est affichée derrière le verre de l’écran et que l’écran tactile est sur le dessus, on a souvent une erreur de parallaxe importante.

Les crayons optiques, pratiquement inutilisés aujourd’hui, détectent le passage du spot électronique de l’écran (technologie du tube cathodique) par une cellule électro-optique intégrée au stylo. En mesurant l’intervalle de temps entre le moment où le spot électronique commence le balayage et celui où il passe devant la cellule du crayon, on peut déterminer la position de ce dernier.

C’est une question de synchronisation avec la HBL et la VBL, signaux de fin de ligne et d’écran respectivement.

Ses applications vont de la simple sélection dans un menu au dessin sur l’écran.

Détaillons un peu.

Lorsque la pointe du stylo/crayon (comportant le phototransistor), est dirigée vers l’écran de l’ordinateur, il se produit donc une impulsion chaque fois que le rayon cathodique frappe sa position sur l’écran. Cette impulsion peut être évaluée par l’ordinateur, avec un programme approprié, ce qui permet de déterminer la position du crayon optique sur l’écran.

Hormis le photo transistor, il suffit de 2-3 résistances dont une variable (réglage de la sensibilité / amplification) et d’un transistor pour l’amplification du courant.

Schéma électronique d’un crayon optique classique

Il ne faut pas oublier de four un niveau TTL en sortie pour acceptation par l’ordinateur.

Attention toutefois aux bruits de fond optique et électronique (envisagez peut-être un filtrage).

En ce qui concerne le pistolet optique, le principe est le même. Seulement, étant donné l’accroissement de la distance interface écran accrue, le signal lumineux sera plus faible et on devra choisir une photo transistor plus sensible et/ou simplement augmenter l’amplification.

Il existe aussi des pistolets utilisant le principe des traqueurs acoustiques, optique (infra rouge) ou encore magnétique (le précédent système n’est pas d’une stabilité et précision si redoutable (l’inclinaison de stylo ou pistolet n’intervient que peu sur la réception alors qu’elle le devrait)).

C – 3 Joystick, game/joy-pad, volant et pédaliers

Le joystick est une poignée verticale utilisée en général dans les jeux vidéo. Elle permet de retranscrire les inclinaisons cardinales de l’axe comme correspondant à des orientations vectorielles dans un plan horizontal. A la différence d’une souris qui enregistre un mouvement analogique, les joysticks enregistrent des états digitaux (même si la représentation finale est analogique). Il existe toutefois des joysticks analogiques.

Au manche s’ajoute en général des boutons aux fonctions les plus diverses.

Les joysticks sont généralement munis de ressorts qui ramènent le manche à sa position de repos. Certains joysticks sont à jauge de contrainte : c’est l’effort sur le manche à balai qui est mesuré et non pas son déplacement. Les joysticks contrôlent la vitesse du curseur plutôt que sa position, ce qui introduit une indirection qui peut poser des problèmes à certains utilisateurs.

Certains joysticks offrent un 3ème degré de liberté avec la rotation du manche sur lui-même. Dans certains jeux de simulation de pilotage, il est même désormais proposé des joysticks ultra complexes, avec pédalier et volant à la place d’un manche (pour les simulations automobile).

Le constructeur japonais de consoles de jeux vidéo Nintendo a proposé depuis le début des années 80 une alternative au joystick, le gamepad sensé répondre à la fragilité légendaire des joysticks. En effet le maniement de ces interfaces, dans le contexte de jeux faisant appelle aux qualités des réflexes des joueurs, soumet le manche et ses articulations à des violences mécaniques amplifiées par l’effet de levier

Un gamepad ou joypad est souvent fait de plastique, contient en standard de 2 à 10 boutons de tir et un disque directionnel enregistrant des pressions cardinales. A la différence de certains joystick qui ont vocation à être fixés sur une surface horizontale plane (à l’aide de ventouse) ou qui mobiliseraient une des deux mains pour maintenir l’objet, le gamepad est exclusivement mobile. Le joueur le tient à l’aide de ses deux mains. A l’origine, le gamepad a d’ailleurs été développé pour les premiers jeux électronique portable.

Volant et pédaliers disposent de technologies de mesure de rotation et inclinaison électromagnétique et/ou optique.

Prenons le cas de la rotation, soit du volant :

Sur autour de l’axe en rotation du volant, fixons un disque optique (plastique transparent et solide) gradué radialement (créneaux transparent/opaque) de manière uniforme. Plaçons une LED d’un coté du disque, est un photodiode de l’autre. Quant le volant tourne, le phot transistor voit un défilement de créneau d’intensités permettant une estimation de la position angulaire relative et de la vitesse angulaire du volant.

Si l’on rajoute une 2ème graduation radiale en quadrature et un peu plus éloignée (ou proche) du centre du disque soit de l’axe de rotation par rapport à la 1ère, et que l’on y attribue également un couple LED-photodiode, on a l’information de sens de rotation.

En ce qui concerne le pédalier, une simple de détection de proximité magnétique telle qu’une bobine parcourue par un courant fluctuant en raison des courants de Foucault suivant les mouvements d’un conducteur se déplaçant en son centre suffit.

C’est d’ailleurs ce que l’on emploie en général.

Il existe toutefois quelques systèmes de mesure de rotation pour le volant et d’inclinaison pour le pédalier qui soit basés sur l’utilisation d’une fibre optique un peu comme dans le cas du gant de donnée qui est développé page 23.

C – 4 Souris 2D/3D et trackball avec ou sans fil

Les souris sont les périphériques d’entrée les plus répandus, grâce à leur faible coût, leur polyvalence et leur faible encombrement. Elles sont le plus souvent mécaniques, parfois optiques

Les souris optomécaniques disposent d’une grosse bille et de deux axes perpendiculaires sur lesquels sont montés 2 roues percées de trous. En face de chaque roue est installé un phototransistor. La bille est en contact avec les axes. A chaque déplacement de la souris, la bille roule entraînant la rotation de l’un ou des deux axes. Les rotations sont captées par les relais optiques qui en déduisent le sens et l’amplitude du déplacement en temps réel. Cette souris ne nécessitent aucun support particulier du moment ou il est plane. Ces souris ont pour inconvénient leur poids (bille) et l’encrassement inévitable des points de contact bille axe entraînant avec le temps un déplacement de plus en plus aléatoire.

Les souris optiques fonctionnement tout à fait différemment, sont plus légères, plus rapides, ne disposent pas de bille et ne voient pas leur qualité se dégrader avec le temps.

Il en existe deux types.

La plus ancienne est fournie avec un tapis finement tramé (souvent taché de point blancs sur un fond noir). Elle disposent d’une diode électroluminescente (LED) et d’une cellule photo-électrique, toutes deux orientées vers le tapis. Deux rayons convergents viennent frapper la surface réfléchissante du tapis, et la cellule photoélectrique détecte le flux réfléchi dont l’évolution traduit le déplacement de la souris sur le tapis

La plus récente (crée par Logitech), n’a plus besoin de tapis optique : elle dispose d’une petite matrice CCD et d’un systèmes d’analyse de la topographie (aspérités) de surface sur laquelle elle est déplacée. La plupart des surfaces fonctionnent, mais pas toutes encore. Leur prix est relativement élevé par rapport à la souris optomécanique.,

Les trackballs peuvent être décrites comme des souris mécaniques inversées. Elles ont l’avantage d’un encombrement très faible et d’une position fixe. Cependant, la précision est en général moins bonne que celle d’une souris quand on en a pas l’habitude. On trouve surtout des trackballs sur les ordinateurs et consoles portables.

Plusieurs options ont été développées pour ces souris et trackballs, options dont les plus connues sont :

– un bouton droit, un bouton gauche et parfois un bouton central

– une molette, c’est-à-dire une petite roue située entre les deux boutons classiques de la souris. Cette molette permet de faire défiler la page sans avoir à utiliser la barre de défilement avec la curseur. Ceci procure un confort et une rapidité de lecture accrus, et repose le poignant en évitant les grands gestes nécessaires pour placer le curseur sur la barre de défilement et le faire descendre

– sans fil : Cette souris transmet ses informations à l’unité centrale par transmission infrarouge, magnétique ou ultra-sonore. Elle est livrée avec son recepteur adapé. La disparition du fil de communication évite à l’utilisateur des désagréments qui peuvent survenir quand le fil s’emmêle ou se coince sous le clavier.

– biométrique : Codes d’accès, mots de passe, signatures électroniques,… : les moyens se multiplient pour s’assurer de l’identité de son interlocuteur sur le Web. (ci-contre)

Mais pour franchir la première étape d’une transaction sécurisée, la procédure peut devenir trop contraignante pour le grand public. C’est pourquoi la société Secugen a développé entre autre la première souris biométrique équipée d’un capteur permettant de vérifier l’empreinte digitale de l’utilisateur. Cette technique va permettre de sécuriser Internet en ayant la possibilité d’identifier les internautes de manière quasi-indiscutable.

– footmouse : Révolutionnaire selon ses inventeurs, cette souris qui se manipule avec le pieds se compose de deux pédales : une contrôlant les mouvements haut-bas du curseur, l’autre les mouvements gauche-droite. Elle doit permettre d’accroître la productivité des utilisateurs d’ordinateurs en leur permettant d’utiliser en même temps le clavier et la souris. La footmouse repose également la colonne vertébrale de l’utilisateur, en l’obligeant à se tenir droit.

– ergonomique : Cette souris, qui rompt totalement avec l’esthétique de la souris classique, doit être positionnée en face de l’utilisateur. Ce modèle est sensé réduire la tension dans les muscles et les articulations, et les blessures du coude et du poignet. La souris ergonomique doit permettre de travailler des heures durant, en éliminant la fatigue du haut du corps.

– feedback : Souris douée de mouvement dont je reparlerai dans le chapitre suivant.

Je vous ai parlé des souris et trackballs 2D, maintenant, voyons ce qu’est une souris 3D (le principe est le même pour le trackball).

On peut définir une souris 3D comme étant une interface permettant à l’utilisateur de commander en général trois translations et trois rotations perpendiculaires dans l’espace.

Un traqueur tel que ceux développés dans le chapitre des capteurs de positionnement peut faire la même fonction, mais une souris 3D ne peut relever la localis ation absolue de la main. A l’avantage des souris 3D, il est plus facile techniquement de les réaliser en jouant sur les mouvements volontaires de la main. La conséquence est généralement un prix d’achat relativement faible par rapport aux capteurs de localisation.

Rappelons que s’il n’est pas trop difficile de translater tout objet virtuel (curseur pièce, …) dans n’importe quelle direction à partir des trois commandes de translation, l’orientation du curseur est délicate : les rotations suivant trois axes perpendiculaires ne sont pas des opérations géométriques commutatives. L’orientation d’un objet virtuel dans une direction souhaitée (et non orientation au hasard) ne peut être réalisée que par des habitués de ce type d’interface, tels que les ingénieurs travaillant quotidiennement sur les stations de travail de CAO (manipulation de formes 3D pour réalisation de jeux).

Les souris 3D peuvent être basées sur le principe d’une manette 2D à laquelle on peut appliquer une force verticale complémentaire pour la troisième dimension. Dans ce cas, on ne maîtrise que les trois degrés de liberté en translation. Un autre principe voisin est basé sur la manipulation d’une boule sur laquelle on applique manuellement des forces et des couples qui sont mesurés. Ces efforts variables commandent proportionnellement en général les vitesses de rotation et de translation de l’objet affiché à l’écran. A noter que la boule se déplace peu par rapport au socle auquel elle est rattachée, ce qui permet à l’opérateur de garder sa main pratiquement immobile. Ce type d’interface mesure des efforts, mais seulement pour une commande de mouvement, il n’est donc pas employé comme capteur d’effort.

Le principe technique est basé sur une boule dotée de capteurs (trois pour les forces et trois pour les couples) mesurant les efforts de la main de l’opérateur sur un élément peu déformable. Les forces et les couples sont enregistrés indirectement par des capteurs optiques qui mesurent des déplacements faibles dus aux déformations. Ces dispositifs souffrent du couplage des efforts. Il est difficile d’appliquer des forces sans des couples et inversement. On peut néanmoins par logiciel ne commander que des translations ou des rotations de l’objet

Souris 3D SpaceBall, © Immersion S.A.

La souris « Space mouse » de LogiCad 3D fonctionne à partir d’un système optoélectronique de mesure des mouvements (un peu comme celui des modèles de souris optique dernière génération) La force maximale applicable est de 4,5 N et le couple maximum est de 0,1 N.m. La résolution est sur 600 incréments.

A noter qu’un constructeur propose une souris 3D exploitant le même principe que les capteurs de localisation à ultrasons. Elle est composée d’une base fixe avec trois émetteurs en triangle et d’une poignée mobile avec trois récepteurs en position identique, de petite taille (quelques cm). L’opérateur peut déplacer la main dans l’espace de mesure, même si ce dernier est limité à une zone proche de la base (utilisation sur un bureau). La frontière est étroite dans ce cas entre capteur de localisation et souris 3D.

Toutes les souris 3D possèdent évidemment plusieurs boutons de commande. Pour toutes les souris 3D, l’opérateur ne peut pas oublier totalement la manipulation de ce type d’interface au cours de son utilisation, d’où un manque de transparence préjudiciable à toute immersion naturelle dans un monde virtuel.

Laisser un commentaire

%d blogueurs aiment cette page :