17h30
– 30$ à la porte – forfaits disponibles, voir le site www.interfacesmontreal.org
[Audio
et vidéo IP] -L’explosion du linéaire
L’audio
et la vidéo numériques font exploser la réalité
du linéaire sous l’influence de l’interactivité. Les capacités
accrues des processeurs, du stockage et des réseaux IP libèrent
les modes de diffusion traditionnels au profit de tous les écrans, du
PC au téléphone, en passant par le cinéma et la télé
Conférenciers
Éric Bourbeau – TELUS
Jean-François Gagnon – LVL*Studio
Jean-Charles Grégoire – INRS-EMT, Télécommunications
Jeremy Cooperstock – Université McGill, Centre for
intelligent machine (CIM)
Simon Piette – [SAT]
[Éric
Bourbeau] TELUS
La télévision IP
L’émergence
de l’Internet et du protocole de communication TCP/IP dans les années
’90 a créé une onde de choc, un changement de paradigme
profond dans les communications interpersonnelles au niveau mondial.
Depuis le début
du 21e siècle, nous avons assisté à une évolution
rapide des applications IP. D’abord réservé au courriel,
ces technologies et applications ont muté pour permettre le transport
des données, puis de la voix, et maintenant de l’image. Elles ont
également investi de nouveaux marchés et de nouvelles clientèles,
passant du monde des communications d’affaires au divertissement pour
tous.
La venue de ces
nouvelles technologies, conjuguée à l’ouverture du marché
des télécommunications au Canada et ailleurs dans le monde amène
des changements importants au niveau des télécommunications résidentielles.
Les chasses gardées des câblos distributeurs (télévision)
et des télécommunicateurs (téléphonie) ne sont plus.
La lutte se fait désormais client par client, pour l’ensemble de
son portefeuille de services de télécommunications. Les câblos
font de la voix sur IP, et les telcos font de la télévision.
Dans ce contexte,
TELUS et les autres telcos canadiens se lancent dans la télévision
numérique IP. La conférence porte donc sur la télévision
IP, ses applications, son avenir. Eric Bourbeau pilote le projet de télévision
numérique TELUS au Québec.
[Jean-Charles
Grégoire] INRS-EMT, Télécommunications
Audio/Vidéo IP : quelle qualité, et à quel prix?
La
convergence des services de télécommunications, à savoir
leur déploiement sur une infrastructure unique, est un vieil objectif
de l¹industrie, qui semble enfin aboutir. L¹essor des réseaux
IP offre une base unique qui permet – à priori – de déployer des
services de nature diverse. La technologie IP n¹offre par contre aucune
garantie sur la performance, donc la qualité, offerte aux applications.
A l¹heure actuelle, les opérateurs offrent au grand public une discrimination
sur la base de la taille du « tuyau » d¹accès à
domicile, donc du débit global, indépendamment de la nature des
applications qui l¹exploitent. Dans le monde commercial, on déploie
différents niveaux de services pour être certain de respecter les
contraintes de performance des applications telles que la voix ou la vidéo
sur IP. Les opérateurs offrent à leur tour des services d¹inter-réseautage
pour interconnecter les réseaux corporatifs en respectant ces contraintes
de qualité, moyennant des coûts, bien évidemment. Par contre,
nous voyons de plus en plus souvent dans le grand public apparaître des
applications A/V d¹une qualité dont les usagers s¹accommodent
apparemment très bien, sans coût ni infrastructure particuliers.
Entre ces deux extrêmes, il existe un spectre de possibilités que
nous sommes en train d¹explorer, tant sur la manière de gérer
(donc prix) que sur la satisfaction que l¹usager peut en retirer (donc
qualité). Cette présentation fera le point sur la question et
décrira nos voies d¹investigation.
[Jeremy
Cooperstock] Université McGill, Centre for intelligent machine
(CIM)
De la vidéo conférence à la réalité
partagée
Quiconque
expérimente la vidéoconférence, que ce soit par des outils
conventionnels comme CU-SeeMe ou Netmeeting ou par des systèmes haute-fidélité
pour professionnels, se rend vite compte que cela ne correspond ni à
la présence réelle d’une personne, ni même à
un appel téléphonique, tant la qualité de transmission
est limitée. Pire encore est le temps d’attente du signal audio,
qui donne à la conversation un style de « À vous»
qui dégrade l’expérience interactive et intensifie le sentiment
de distance. L’amélioration de la synchronicité est l’un
des plus importants défis à relever pour des applications comme
celles de distribution de spectacles de musique.
Pour y parvenir,
nous développons le Shared Reality Environment. Le but principal de cet
environnement est de supporter l’échange de données vidéo
et audio en mode de très court délai et de haute-fidélité
entre de multiples usagers situés en différents lieux afin de
générer un riche sentiment de co-présence pour chacun d’entre
eux.Ces recherches ont mené, entre autres choses, à la création
de notre système d’Ultra-vidéoconférence, qui fournit
un transport IP de données audio, vidéo et même vibrosensorielles.Nous
avons déjà utiliser ce système pour la diffusion de transfert
de données extrêmement exigeante comme la transmission d’un
concert en direct (1999), le mixage à distance (2000), un spectacle collaboratif
(2001), des ateliers de musique à distance par SDI (2002) et l’interprétation
à distance d’un langage par signe en utilisant trois canaux DV
simultanément (2003). La prochaine présentation portera sur différents
aspects de nos recherches, sur les applications de cet environnement sur la
collaboration distribuée et sur les défis que soulèvent
ces recherches.
[Simon
Piette] Société des arts technologiques
Les développements de l’axe webdiffusion du projet de recherche
Territoires Ouverts (TOT)
Simon
Piette présentera brièvement les axes de recherche du projet TOT,
puis décrira les développements effectués jusqu’à
maintenant pour la webdiffusion, et plus spécifiquement pour le streaming
multi-canal. Enfin, les développements prochains seront discutés.
Le projet TOT se
donne comme mandat de développer des outils logiciels pour les besoins
artistiques, à la fois en créant de nouveaux besoins, à
la fois en répondant aux besoins existants. Il se déploie en plusieurs
axes, dont l’axe webdiffusion. Ce dernier a pour but de de produire des logiciels
de diffusion sur internet dont les capacités dépassent celles
des solutions présentement disponibles, notamment avec l’audio multicanal,
de donner aux artistes des outils logiciels pour la performance ou la diffusion,
et enfin d’offrir ces logiciels sous une licence libre.
Lors des deux premières phases du projet, le logiciel nSlam a été
développé avec PureData, un environnement visuel de construction
multimédia. Ce choix permet aux artistes d’intégrer aisément
le produit des développement à leur pratique artistique. La première
piste suivie fut celle du streaming sur HTTP. Cette méthode, déjà
utilisée par nombre de radio internet, avait fait ses preuves et est
appropriée pour la diffusion grand public dans la mesure où la
bande passante est disponible. En utilisant Ogg/Vorbis, on peut streamer jusqu’à
256 canaux. 8 canaux vont utiliser environ 2 Mbps, et on peut s’attendre à
une latence d’une quizaine de seconde. Celle-ci est largement déterminée
par le client.
Par la suite, le
projet s’est orienté vers le point à point, avec comme objectif
de diminuer la latence. Pour réaliser cet objectif, la compression et
le “media container” ont été éliminés,
ce qui rend la mesure de la latence dans l’ordre des milisecondes. Les besoins
en bande passante sont bien sûr plus grand: un envoi de 8 canaux 16 bits,
44,1 KHz généreront un débit d’environ 5,5 Mbps.
Les prochains développements
vont reprendre ces travaux et les intégrer dans un lecteur plus convivial,
videolan. De plus, afin de rendre la diffusion possible sans une bande passante
considérable (du point de vue des moyens d’un artiste), la redistribution
des paquets déjà reçu vers d’autres clients sera intégrée.