Relatório de Avaliação dos Projetos Multimédia – Turma 12ºDG (2024/2025)

1. Introdução

Este documento resume a avaliação dos projetos multimédia desenvolvidos pelos alunos da turma 12ºEF, no ano letivo 2021/2022. Os trabalhos foram avaliados com base em quatro componentes principais:

  • Imagem (logo, capas de DVD e relatório, peso: 15%)
  • Projeto (jogo ou filme, peso: 55%)
  • Relatório (estrutura, conteúdo e formatação, peso: 15%)
  • Apresentação oral (clareza, interação e recursos visuais, peso: 15%)

Além disso, foi considerada a heteroavaliação (avaliação entre pares) e autoavaliação dos alunos.

A grelha de avaliação apresenta os resultados dos projetos multimédia desenvolvidos por grupos de alunos, abrangendo critérios como imagem, projeto, relatório e apresentação oral. Os projetos foram avaliados em diferentes categorias, com pesos específicos para cada componente, resultando numa classificação final.

Principais Observações:

  1. Projetos Destacados:
    • MDR Studios e Mythic Games obtiveram as melhores classificações (20 e 19 valores, respetivamente), com elogios à organização, criatividade e qualidade dos trabalhos apresentados. O grupo MDR Studios destacou-se pela apresentação bem estruturada e pelo trailer apelativo.
    • COC Productions e Bit by Bit também receberam avaliações positivas (19 e 18 valores), com menções à originalidade e ao esforço na execução, embora com algumas falhas pontuais, como problemas de formatação ou falta de detalhes em anexos.
  2. Pontos a Melhorar:
    • Alguns grupos, como ZENNITH e Histórias de Rua, tiveram avaliações mais baixas (15 valores) devido a problemas como falta de ilustrações, demonstração inadequada do jogo ou relatórios incompletos.
    • O grupo GD sports foi o menos avaliado (12 valores), com críticas à falta de cumprimento de requisitos e à apresentação pouco elaborada.
  3. Avaliação por Componentes:

    • Relatório: Os melhores relatórios foram os dos grupos MDR Studios (20 valores) e Mythic Games (18.4 valores), que se destacaram pela clareza, detalhe e organização. Problemas comuns incluíram falta de ilustrações, cronogramas mal elaborados e bibliografias incompletas.

    • Apresentação Oral: As apresentações mais bem avaliadas foram as dos grupos MDR Studios (20 valores) e RAR-E Studios (18.2 valores), que conseguiram transmitir as ideias com clareza e interagir com a audiência. Outros grupos tiveram dificuldades em demonstrar os projetos ou evitar a leitura de slides.

  4. Heteroavaliação:

    • Os alunos avaliaram os colegas de forma geralmente consistente com as notas dos professores, destacando os mesmos grupos (como MDR Studios e Mythic Games) como os mais bem-sucedidos.

  5. AVALIAÇÃO ESPECÍFICA DO RAR-E STUDIOS (12ºDG)

    Classificação Final: 18 valores (Turma 12ºDG)

    Pontos Fortes:

    • ✔ Filme com qualidades técnicas destacadas: música de fundo adequada, flashbacks bem executados e final criativo

    • ✔ Elementos narrativos originais: personagem com máscara e voz transfigurada gerou interesse

    • ✔ Trailer avaliado como “MB” (Muito Bom) na apresentação oral

    • ✔ Audiência envolvida durante a apresentação (silêncio e atenção)

    Pontos Fracos:

    • ✖ Falta de apoio visual: não utilizaram PPT para organizar ideias

    • ✖ Site incompleto: não disponibilizou a curta-metragem

    • ✖ Capa do relatório não correspondeu à qualidade do projeto

    • ✖ Anexos em falta: planeamento e cronograma não entregues

    Desempenho por Componentes:

    • Projeto (Filme): 18.31 valores

    • Relatório: 13.8 valores (pontuação mais baixa)

    • Apresentação Oral: 18.2 valores

    • Heteroavaliação Média: 19.5 valores (entre pares)

Conclusão:

Os projetos demonstraram variação significativa na qualidade, com alguns grupos a destacarem-se pela excelência e outros a necessitarem de melhorias na organização, execução e apresentação. A criatividade e a atenção aos detalhes foram fatores determinantes para as melhores avaliações. Recomenda-se maior rigor no cumprimento dos requisitos e na preparação das apresentações para futuros trabalhos.

DG Apresentação dos projetos finais dos alunos

https://nuno77do080820075.wixsite.com/coc-productions

https://a111651.wixsite.com/my-site-2


27-5-2025

image_2025-07-04_150537193
image_2025-07-04_150556130
image_2025-07-04_150537193 image_2025-07-04_150556130
Posted in: Intervenção

Resultados de todas as atividades gamificadas

Excel com exportação de todas as interções dos alunos com o recurso que dá como origem a estes resultados e ao Questionário SUS

De notar que as linhas em branco significam que o aluno esteve na folha do recurso, mas apenas quando tem object_description, result_responde, result_score_raw, result_score_scaled e result_completion significa que houve resposta ao recurso e que essa resposta ficou registada com a respetiva escala.


Turma DG - Desafio de conhecimentos sobre o recurso de tipos de ficheiros e codecs - 40 estrelas possíveis

dg-aula-1-formatos–ficheiros-codecs


Turma EF - Desafio de conhecimentos sobre o recurso de tipos de ficheiros e codecs - 40 estrelas possíveis

ef-aula-1-formatos–ficheiros-codecs


Turma EF - Desafio de conhecimentos sobre o recurso do software JDownloader - 14 estrelas possíveis

dg-aula-2-download-de-media-dinamica-atraves-do-jdownloader


Turma DG - Desafio de conhecimentos sobre o recurso do software JDownloader - 14 estrelas possíveis

ef-aula-2-download-de-media-dinamica-atraves-do-jdownloader


Turma DG - Desafio de conhecimentos sobre o recurso do software VidCoder - 11 estrelas possíveis

dg-aula-3-conversoes-de-formatos


Turma EF - Desafio de conhecimentos sobre o recurso do software VidCoder - 11 estrelas possíveis

ef-aula-3-conversoes-de-formatos


Turma DG - Desafio de conhecimentos sobre o recurso do software Google Earth Studio - 14 estrelas possíveis

dg-aula-4-google-earth-studio


Turma EF - Desafio de conhecimentos sobre o recurso do software Google Earth Studio - 14 estrelas possíveis

ef-aula-4-google-earth-studio


Turma DG - Desafio de conhecimentos sobre gravação em OBS Studio - 3 estrelas possíveis

dg-aula-5-captura-de-ecrã


Turma EF - Desafio de conhecimentos sobre gravação em OBS Studio - 3 estrelas possíveis

ef-aula-5-captura-de-ecrã


Turma EF - Desafio de conhecimentos sobre Geração de vídeo em IA - 8 estrelas possíveis

ef-aula-6-sobre-geracao-de-videos-em-ia-e-sobre-o-futuro-no-curto-prazo


Turma DG - Desafio de conhecimentos sobre Geração de vídeo em IA - 8 estrelas possíveis

dg-aula-6-sobre-geracao-de-videos-em-ia-e-sobre-o-futuro-no-curto-prazo


Turma EF - Desafio de conhecimentos sobre OBS Studio Live Youtube - 13 estrelas possíveis

ef-aula-7-live-no-youtube-usando-obs-studio


Turma DG - Desafio de conhecimentos sobre OBS Studio Live Youtube - 13 estrelas possíveis

dg-aula-7-live-no-youtube-usando-obs-studio

 

DG Apresentação dos projetos finais dos alunos

https://luanagouveiacarol7.wixsite.com/my-site-4

https://anaritamg2007.wixsite.com/o-incio-do-fim

https://nandesrk.wixsite.com/gdsports

https://rodrigosilvacosta10.wixsite.com/the-illusion-week


20-5-2025

image_2025-07-04_145337554
image_2025-07-04_145316808
image_2025-07-04_145449299
image_2025-07-04_145356512
image_2025-07-04_145337554 image_2025-07-04_145316808 image_2025-07-04_145449299 image_2025-07-04_145356512

DG Apresentação dos projetos finais dos alunos

EF Mythic Games e BitBybit

image_2025-06-19_181231887
image_2025-06-19_181302536
image_2025-06-19_181231887 image_2025-06-19_181302536

https://afonsorcmonteiro.wixsite.com/mythicgames

Trailer

https://afonsorcmonteiro.wixsite.com/mythicgames/battle-of-braves

https://guilhermepinto20071.wixsite.com/bitbybit

 

DG Aula 4, Google Earth Studio

 


A aula foi motivada pelo interesse de um grupo de alunos em criar um vídeo com efeito de drone do Hospital de Gaia. Como alternativa, introduzi o Google Earth Studio, uma ferramenta que simula perfeitamente voos de drone (com marca d’água na versão gratuita).

Principais Conceitos Abordados e sua Recepção
Os alunos tiveram um interesse misto devido à quantidade de conceitos novos e técnicos envolvidas.

Dificuldades e envolvimento
– Apesar da curiosidade inicial, alguns alunos acharam os conceitos complexos, principalmente os atributos da câmera.
– O voo de Drone sobre a escola que fiz como exemplar e distribuido no conteúdo ajudou na aprendizagem e no interesse dos alunos, mas a versão gratuita (com marca d’água) limitou o entusiasmo em alguns casos.


– Os modos de animação, como espiral e órbita, despertaram mais interesse por serem visuais e intuitivos.

Conclusão
A aula foi bem recebida como introdução, mas a absorção dos conceitos variou conforme a familiaridade com edição e animação.


Conceitos-Chave Presentes no Exercício Gamificado de Arrasta as Palavras sobre Google Earth Studio com um Máximo de 14 Estrelas

O exercício de “arrastar as palavras” aborda funcionalidades técnicas do Google Earth Studio, técnicas de animação 3D e elementos essenciais para a criação de vídeos geográficos profissionais.

Os conceitos chaves presentes no exercício sobre o Google Earth Studio são:

  1. Keyframes – Pontos-chave que definem a trajetória e os movimentos da câmera.
  2. Atributos da câmera
    1. Posição– Coordenadas geográficas da câmera.
    2. Alvo – Direção para onde a câmera está apontada.
    3. Rotação – Giro horizontal da câmera.
    4. Tilt – Ângulo vertical da câmera.
  3. Velocidade entre keyframes– Ajuste de aceleração e desaceleração para movimentos mais naturais.
  4. FOV (Field of View) – Controla o zoom in e zoom out, simulando diferentes lentes.
  5. Edifícios 3D – Visualização detalhada de prédios em cidades.
  6. Iluminação – Controle de sombras e luz em diferentes horários do dia.
  7. Modos de animação de câmera
    1. Zoom – Aproxima ou afasta a visualização.
    2. Órbita – Circula em torno de um objeto central.
    3. Ponto a ponto – Transições lineares entre locais.
    4. Espiral – Combina movimento circular com variação de altitude.

Esses conceitos são essenciais para criar animações profissionais, simuladores de voo e vídeos realistas no Google Earth Studio.


Turma DG - Desafio de conhecimentos sobre o recurso do software Google Earth Studio - 14 estrelas possíveis

Conclusões resumidas:

  1. Desempenho variado: Pontuações entre 2 e 14 estrelas mostram diferentes níveis de domínio do Google Earth Studio.
  2. Maioria não atingiu o máximo: Poucos alcançaram 14 estrelas; a maioria ficou em 10–13, indicando espaço para melhoria.
  3. Dificuldades nos conceitos-chave: mostra que alguns participantes podem ter tido dificuldades em conceitos-chave, como o uso de keyframes, atributos da câmera (posição, alvo, rotação, tilt, FOV), ou modos de animação (zoom, órbita, ponto a ponto, espiral).

Ação: Devem rever os conceitos e devem fazer mais casos práticos para assimilarem os conceitos-chave.

Back to Top