TutorialWebAudio: mudanças entre as edições

De Pontão Nós Digitais
Ir para navegaçãoIr para pesquisar
Sem resumo de edição
Sem resumo de edição
 
Linha 1: Linha 1:
= O que é Web Audio API? =
Até tempos atrás, a única forma de reproduzir dados na Web era ou usando plugins Flash, applets Java ou mais recentemente, através da tag <audio> do padrão HTML5. Isso mudou com Dave Humphrey que fez uma série de testes e hacks no Firefox, permitindo o acesso ao dispositivo de áudio diretamente a partir de JavaScript. Foi chamado de [https://wiki.mozilla.org/Audio_Data_API Audio Data API].
Até tempos atrás, a única forma de reproduzir dados na Web era ou usando plugins Flash, applets Java ou mais recentemente, através da tag <audio> do padrão HTML5. Isso mudou com Dave Humphrey que fez uma série de testes e hacks no Firefox, permitindo o acesso ao dispositivo de áudio diretamente a partir de JavaScript. Foi chamado de [https://wiki.mozilla.org/Audio_Data_API Audio Data API].


Motivado por essas ações de Dave e outros Mozillians, a W3C estabeleceu um grupo de trabalho para criar uma padronização para processamento de áudio em HTML/JS.
Motivado por essas ações de Dave e outros Mozillians, a W3C estabeleceu um grupo de trabalho para criar uma padronização para processamento de áudio em HTML/JS. Em seguida, a Google cria a Web Audio API, que está se tornando o padrão W3C.
 
Atualmente os browsers que implementam a Web Audio API são: Chrome >= 10.0 e Safari >= 6.0. Em breve estará disponível também em Firefox. Para saber mais veja http://caniuse.com/audio-api.
 
Com a Web Audio API podemos processar áudio em tempo real, utilizando uma API em JavaScript que faz chamadas a funções implementadas (e otimizadas) em C++ (também é possível manipular buffers de áudio diretamente em JavaScript, tornando o processamento de áudio bastante flexível).
 
Toda a referência da API está nesse draft de especificação: https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/specification.html
 
Exemplos de seu uso em: http://chromium.googlecode.com/svn/trunk/samples/audio/index.html


Engenheiros da Google então criaram a Web Audio API. Atualmente
= Hello, World =

Edição atual tal como às 02h04min de 4 de outubro de 2012

O que é Web Audio API?

Até tempos atrás, a única forma de reproduzir dados na Web era ou usando plugins Flash, applets Java ou mais recentemente, através da tag <audio> do padrão HTML5. Isso mudou com Dave Humphrey que fez uma série de testes e hacks no Firefox, permitindo o acesso ao dispositivo de áudio diretamente a partir de JavaScript. Foi chamado de Audio Data API.

Motivado por essas ações de Dave e outros Mozillians, a W3C estabeleceu um grupo de trabalho para criar uma padronização para processamento de áudio em HTML/JS. Em seguida, a Google cria a Web Audio API, que está se tornando o padrão W3C.

Atualmente os browsers que implementam a Web Audio API são: Chrome >= 10.0 e Safari >= 6.0. Em breve estará disponível também em Firefox. Para saber mais veja http://caniuse.com/audio-api.

Com a Web Audio API podemos processar áudio em tempo real, utilizando uma API em JavaScript que faz chamadas a funções implementadas (e otimizadas) em C++ (também é possível manipular buffers de áudio diretamente em JavaScript, tornando o processamento de áudio bastante flexível).

Toda a referência da API está nesse draft de especificação: https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/specification.html

Exemplos de seu uso em: http://chromium.googlecode.com/svn/trunk/samples/audio/index.html

Hello, World