Esta tendência para criar em torno de mim um outro mundo,

igual a este mas com outra gente, nunca me saiu da imaginação. Teve várias fases, entre as quais esta, sucedida já em maioridade. Ocorria-me um dito de espírito, absolutamente alheio, por um motivo ou outro, a quem eu sou, ou a quem suponho que sou. Dizia-o, imediatamente, espontaneamente, como sendo de certo amigo meu, cujo nome inventava, cuja história acrescentava, e cuja figura — cara, estatura, traje e gesto — imediatamente eu via diante de mim. E assim arranjei, e propaguei, vários amigos e conhecidos que nunca existiram, mas que ainda hoje, a perto de trinta anos de distância, oiço, sinto, vejo. Repito: oiço, sinto vejo...

Relatório: Testes

Etapas da A/R/COGRAFIA: Testes

Nesta etapa estamos perante a implementação do artefacto, que pode ainda não ser definitiva. Mediante o desenvolvimento e os testes, poderão ocorrer alterações e melhorias motivadas pelo feedback da interação, e resultados de testes de código e de experimentação. “O feedback externo pode agora influenciar positivamente o projeto e fortalecer a confiança do a/r/cógrafo no seu trabalho.” (Veiga, 2020)

Este projeto passou por várias fases de testes as quais serão descritas seguidamente, bem como os seus resultados e melhorias aplicadas, decorrentes desses mesmos resultados. Tratando-se de um projeto cujo peso está no desenvolvimento e programação e não na construção de um artefacto físico, as primeiras fases de testes ocorrem durante o seu desenvolvimento. Inicialmente, foram efetuados testes relativamente à estrutura e tecnologias a utilizar, nomeadamente VS Code com utilização de bibliotecas Js e P5.js, servidor integrado no VS Code para execução na web com um local server, debug através de DevTools, e testes de integração do projeto no GitsHub, gestão de versionamento e publicação web por via do Gits Pages. Durante o desenvolvimento ocorreram testes contínuos decorrentes da própria implementação, nomeadamente, testes unitários ao código, testes de imagem e dos conteúdos média visuais e auditivos, e testes às funcionalidades implementadas com interações de botões, teclado ou mouse.

O projeto possui quatro etapas da narrativa divididas em páginas web:

1ª parte - introdução/ambientação

2ª parte - entrada imersiva com vídeo estimulando sentidos para transmitir ao utilizador a sensação de ser parte integrante da ação

3ª parte - interação e criação de textos generativos por temas

4ª parte - saída imersiva com vídeo (que termina reiniciando o projeto na 1ª parte)

Para o seu desenvolvimento, foram utilizadas tecnologias como HTML, CSS, JavaScript e P5.js. conforme ilustram as seguintes imagens (exemplo de uma das páginas):

Figura 1 - Página generatePoetry.html

Figura 2 - generatePoetry.js

Figura 3 - style.css

Nas primeiras fases de desenvolvimento a navegação entre as várias etapas foi desenvolvida utilizando botões, onde o utilizador teria de clicar para passar para a página seguinte. Ao efetuar testes, através da interação de amigos e familiares, sem terem conhecimento prévio do projeto ou do funcionamento do programa, foram obtidos os seguintes feedbacks de melhoria:

a) Na página inicial, a utilização de vozes sobrepostas, representativas dos muitos “eus” que povoam a mente de Fernando Pessoa, eram longas e causavam desconforto; 

b) A utilização de botões que o utilizador tem de clicar para ir para a página seguinte, quebra um pouco a narrativa, e a mesma poderia ser mais fluída se fosse automática;

c) O utilizador poderia clicar nesses botões a qualquer momento, e saltar etapas sem ter a experiência completa da narrativa, que é essencial e pretendida; também ao clicar várias vezes com o mouse, iniciava sempre parte sonora sobreposta com a que já estava em execução;

d) Os vídeos não tinham opção de colocar fullscreen;

e) A página inicial em vez de uma imagem estática poderia ter algo mais dinâmico e esteticamente mais atrativo;

f) Não estava prevista a forma de reiniciar o programa para a próxima pessoa a usufruir da experiência;

g) Deveria ser pensada uma forma de executar a aplicação em fullscreen, ocultando-se assim separadores das páginas;


Exemplos dos primeiros desenvolvimentos com botões:

Figura 4 - primeira página com botão continuar, tooltip para mover o mouse e imagem estática

Figura 5 - HTML buttons para manipulação do vídeo da 2ª página

Figura 6 - buttons previstos para manipulação do vídeo


Os resultados desta fase de testes, cujos feedbacks foram obtidos pela participação de 7 pessoas, deram início as seguintes melhorias/alterações no projeto:

a) Redução do tempo de execução das vozes sobrepostas, representativas dos muitos “eus” que povoam a mente de Fernando Pessoa para apenas 3 ou 4 palavras e restante frase percetível;

b) Nas páginas dos vídeos, foram retirados os botões de manipulação. Na passagem para essas páginas, o vídeo inicia em autoplay e quando termina, encaminha automaticamente para a página seguinte. 

c) O utilizador só pode clicar no botão da página inicial quando usufruir da total experiência sonora, o que impede de passar esta etapa sem a sua fruição. O botão passou a estar oculto, e é exibido quando a parte sonora termina. A parte sonora só inicia quando clica no ecrã. Nesta página manteve-se o botão para ir para a página seguinte para que, ao finalizar uma interação com o programa, a próxima pessoa inicie precisamente nesta página, neste passo. Também por esse motivo a parte sonora tem de ser despoletada pelo click do utilizador. Foi adicionada condição para que, enquanto a parte sonora decorre, ao clicar com o mouse não inicie outras sobrepostas. 

d) Foi adicionada uma função para que, ao fazer um click no ecrã, os vídeos fiquem em fullscreen;

e) A página inicial em vez de uma imagem estática, passou a ter vídeo com imagens geradas por AI, sendo o efeito mais atrativo e imersivo;

f) Ao finalizar a visualização do último vídeo, foram retirados os botões tal como no primeiro vídeo. Este passou a iniciar em auto play, e quando finaliza, encaminha para a página de início, ficando no ponto em que está preparada para a experiência do próximo utilizador. A experiência apenas começa quando é despoletado o com, através do click no ecrã;

g) O programa será exibido em modo fullscreen do browser, que, após pesquisas, verificou-se que não pode ser automatizado devido a restrições de segurança dos browsers. O modo fullscreen apenas pode ser despoletado com ação do utilizador. Assim, o artefacto ficará logo exposto em modo fullscreen do browser;

Finalizadas as várias alterações, foram solicitados novos testes novamente pela interação de amigos e familiares. A experiência foi muito mais satisfatória e fluída, sendo ainda reportadas questões relativamente à utilização do computador, que poderá ser utilizado indevidamente. Para esse ponto estabeleceu-se que o programa será exibido não com um computador para utilização (que era o previsto inicialmente) mas apenas com monitor e mouse. O computador estará conectado ao monitor, mas, o utilizador apenas terá acesso ao monitor e ao mouse, e todas as funções de interatividade estão previstas para utilização exclusiva com o mouse. Isto previne a utilização indevida do computador para outros fins que não sejam a exploração do programa.

Relativamente aos textos a gerar automaticamente, os mesmos foram definidos por temas, existindo diferentes botões de diferentes temas. Numa fase muito embrionária, estava prevista a geração de poemas com palavras de input escritas pelos utilizadores. O comportamento inesperado e a má conduta ou utilização poderiam comprometer o objetivo do programa, e por isso a solução foi adaptada para seleção de temas, o que permite controlar a ação do utilizador encaminhando-o para uma experiência correta. Foi igualmente adicionado um botão nesse ecrã de geração de poesia, onde é possível fazer printscreen de textos gerados e guardá-los no computador, sempre que o utilizador desejar, uma vez que os outputs generativos são efémeros. Para cada tema, foi sugerido diferentes efeitos visuais e sonoros. Os testes decorreram apenas com 2 temas, pois os restantes ainda não estão implementados, contudo já estava prevista essa característica, sendo os outputs e as experiências sonoras diferentes em cada um, de forma a proporcionar uma experiência enriquecida e mais estimulante.

O resultado obtido com estas alterações, trouxe um maior controle da ação do utilizador evitando desvios, melhorou a fruição do artefacto com uma experiência mais interessante e fluída, quer visualmente quer auditivamente. Também previne desvios no decorrer da narrativa, encaminhando automaticamente, sempre que possível, o utilizador passo a passo na sua fruição. Por fim, acresce a segurança do equipamento e previne a sua utilização indevida. A utilização de um ecrã também é mais agradável, com maior imagem, o que traz maior envolvência. Os testes sonoros com e sem headphones também se revelaram bastante satisfatórios, sendo o som e a música uma experiência agradável de acordo com o feedback obtido. As imagens seguintes ilustram algumas das melhorias efetuadas:

Figura 7 - Inicio do programa antes de qualquer interação


Figura 8 - Inicio do programa, após interação e finalização dos conteúdos sonoros


Figura 9 – 2º ecrã, em fullscreen do browser


Figura 10 – 3º ecrã, geração de textos


Figura 11 - 4º ecrã, vídeo final, fullscreen do browser

Figura 12 - Regresso ao início, apto para o utilizador seguinte

Será ainda executada uma fase de testes que decorrerá quando estiverem desenvolvidos todos os componentes de criação de texto generativo dos vários temas. Nesse momento, serão efetuados novos testes unitários e testes de funcionalidades. Também será solicitada uma nova experimentação a amigos de familiares, de forma a obter o feedback relativo à geração de diferentes textos com diferentes experiências sonoras e visuais.

Foram também realizados testes de ambiente com diferentes níveis de luz, para determinar o ambiente que proporciona maior envolvência. Numa primeira fase, foi montado o seguinte cenário no decorrer dos testes realizados com a participação de familiares e amigos, sendo a luz da imagem a preferida e escolhida por todos, proporcionando um ambiente acolhedor, intimista, caloroso e introspetivo.

Figura 13 - Testes de instalação

Uma última fase de testes passará pela montagem e testes aos equipamentos. Testes ao funcionamento do computador, ecrã, mouse e headphones, montando todos os equipamentos em casa e testando o programa nas condições que serão disponibilizadas ao público.

Estes testes permitiram:

Consolidar os aspetos tecnológicos, pois numa fase embrionária previa-se o desenvolvimento em P5.js. A combinação de outras tecnologias e elementos audiovisuais trouxeram outras formas de envolvimento, melhorando a experiência estética e de fruição do artefacto;

Validar o correto funcionamento com integração de diferentes tecnologias;

Analisar e validar a implantação do artefacto num espaço adequado, com uma ambientação orientada ao objetivo proposto – um espaço intimista, um momento individual, de conforto, acolhedor e introspetivo;

Efetuar testes com um público restrito (amigos e familiares), permitindo recolher informações de fontes externas, embora controladas e limitadas;

Analisar as reações do público restrito, e o feedback obtido. Estas informações assumiram uma importância relevante na melhoria do artefacto, pelo que foram implementadas alterações a fases anteriores. Nos testes seguintes a experiência de utilização foi muito mais agradável e fluída;

Este projeto está a ser desenvolvido pela própria artista por isso o conhecimento das tecnologias utilizadas é do seu domínio. Isso permite que sejam efetuados muitos testes funcionais no decorrer do desenvolvimento do programa, de acordo com os objetivos de intervenção/comunicação, e também a intervenção no caso de eventuais falhas de funcionamento.


Referências:

Veiga, P. A. (2020). O Museu de Tudo em Qualquer Parte: arte e cultura digital - interferir e curar. Coleção Humanitas, Centro de Investigação em Artes e Comunicação. Grácio Editor. https://repositorioaberto.uab.pt/handle/10400.2/11265