Mostrar el registro sencillo del ítem

dc.contributor.authorSouza, Napoliana Silva dept_BR
dc.contributor.authorCardoso, Eduardopt_BR
dc.contributor.authorPerry, Gabriela Trindadept_BR
dc.date.accessioned2021-07-13T04:39:23Zpt_BR
dc.date.issued2019pt_BR
dc.identifier.issn1413-6538pt_BR
dc.identifier.urihttp://hdl.handle.net/10183/223756pt_BR
dc.description.abstractOs Massive Open Online Courses (MOOCs) têm sido anunciados como uma ferramenta educacional promissora, impulsionando um elevado número de inscrições, de forma a viabilizar a aprendizagem de forma aberta e com ênfase na diversidade de usuários. No entanto, a literatura tem apontado a falta de acessibilidade em MOOCs. Com a intenção de aprimorar o suporte à acessibilidade de uma plataforma de MOOCs, um curso com material multiformato foi avaliado com uso de ferramentas automatizadas. Os resultados dos testes automatizados indicaram alguns problemas de acessibilidade da plataforma, que podem dificultar a participação de pessoas com deficiência, sinalizando a necessidade de projetar tais plataformas de forma inclusiva. Contudo, esse tipo de teste não é capaz de identificar áreas, funcionalidades e conteúdos relevantes dentro de uma página da web, bem como não é capaz de reconhecer diferentes papéis de usuários. O resultado é que áreas da plataforma que não são visíveis aos estudantes (como áreas de administração da plataforma e de edição dos cursos) também são avaliadas nesses testes – mesmo que não seja esse o objetivo. Por esse motivo, concluiu-se que, para avaliar o suporte à inclusão, é necessário aliar aos testes automatizados um método qualitativo. A indicação da limitação desse tipo de teste é a constatação mais importante.pt_BR
dc.description.abstractMassive Open Online Courses (MOOCs) have been announced as a promising educational tool, driving a high number of applications, enabling open learning with an emphasis on the diversity of users. However, literature has pointed to the lack of accessibility in MOOCs. With the intention of improving accessibility support for a MOOC platform, a multi-format course was evaluated using automated tools. The results of the automated tests indicated some accessibility problems of the platform, which can hinder the participation of people with disabilities, signaling the need to design such platforms in an inclusive way. However, this type of test is not capable of discriminate relevant areas, functionalities and contents within a web page, nor is it able to differentiate between different roles of users. The result is that platform areas that are not visible to students (such as platform administration and course editing areas) are also evaluated – even if that is not the goal. For this reason, it was concluded that, to evaluate the inclusion support, it is necessary to combine a qualitative method with the automated tests. The indication of the limitation of this type of test is the most important finding.en
dc.format.mimetypeapplication/pdfpt_BR
dc.language.isoporpt_BR
dc.relation.ispartofRevista brasileira de educação especial. Vol. 25, n. 4 (2019), p. 603-616pt_BR
dc.rightsOpen Accessen
dc.subjectAcessibilidadept_BR
dc.subjectDistance educationen
dc.subjectEducação a distânciapt_BR
dc.subjectPerson with disabilityen
dc.subjectPessoas com deficiênciapt_BR
dc.subjectCourseen
dc.titleLimitações da avaliação automatizada de acessibilidade em uma plataforma de MOOC : estudo de caso de uma plataforma brasileirapt_BR
dc.title.alternativeLimitations of automated accessibility evaluation in a MOOC platform : case study of a brazilian platformen
dc.typeArtigo de periódicopt_BR
dc.identifier.nrb001127894pt_BR
dc.type.originNacionalpt_BR


Ficheros en el ítem

Thumbnail
   

Este ítem está licenciado en la Creative Commons License

Mostrar el registro sencillo del ítem