Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/55073
Tipo: | TCC |
Título: | A generative approach for Android sensor-based applications |
Título em inglês: | A generative approach for Android sensor-based applications |
Autor(es): | Tabosa, Davi Batista |
Orientador: | Carvalho, Windson Viana de |
Coorientador: | Duarte, Paulo |
Palavras-chave: | Context-Aware Information Systems;Android;Generative Programming;Sensor-based |
Data do documento: | 2019 |
Citação: | TABOSA, Davi Batista. A generative approach for Android sensor-based applications. 2019. 15 f. TCC (Graduação em Sistemas e Mídias Digitais)-Universidade Federal do Ceará, Fortaleza, 2019. |
Resumo: | Com a popularização dos smartphones, os dispositivos móveis tornaram-se um elemento tecnológico crucial nos Sistemas de Informação. Além de ser a plataforma do usuário final, os smartphones possuem vários sensores para capturar e caracterizar o contexto do usuário. Os atuais sistemas de informação contextual (CAIS) usam esses dados para melhorar a experiência do usuário, filtrando dados, serviços e, até mesmo, adaptando o comportamento do sistema. O design e o desenvolvimento das partes de captura, inferência e ação do CAIS podem ser desafiadores para desenvolvedores móveis, devido à diversidade do ecossistema de hardware móvel e à complexidade das APIs de sensor. Este artigo apresenta EasyContext, uma ferramenta visual para projetar e gerar regras contextuais para dispositivos móveis, usando a API Google Awareness como seu provedor de informações contextuais. Os desenvolvedores móveis especificam o que capturar e quando reagir às mudanças de contexto na ferramenta visual e essas regras contextuais são exportadas para projetos Android. Avaliamos nossa abordagem com oito desenvolvedores, que foram selecionados para participar de um quase-experimento. O experimento envolve o desenvolvimento de dois aplicativos móveis usando EasyContext e Google Awareness API. Os resultados preliminares mostram que é possível construir aplicativos com menos linhas de código em comparação com a API do Google Awareness. De acordo com os desenvolvedores, a abordagem proposta tem melhor legibilidade e facilita o projeto de regras contextuais. |
Abstract: | With the popularisation of smartphones, mobile devices became a crucial technological element in Information Systems. Beyond be the end-user platform, smartphones have several sensors to capture and characterise the user’s context. Current Context-Aware Information Systems (CAIS) use this data to improve user experience by filtering data, services, and, even, adapting the system behaviour. The design and development of the capture, inference, and action parts of CAIS can be challenging for mobile developers, due to the diversity of mobile hardware ecosystem and sensor APIs’ complexity. This paper presents EasyContext, a visual tool for designing and generating contextual rules for mobile devices, using the Google Awareness API as its contextual information provider. Mobile developers specify what to capture and when to react to context-changes in the visual tool and these contextual rules are exported to Android projects. We evaluated our approach with eight developers, which were selected to participate in a quasi-experiment. The experiment involves developing two mobile applications using both EasyContext and Google Awareness API. Preliminary results show that it is possible to build applications with fewer lines of code compared to the Google Awareness API. According to the developers, the proposed approach has better readability and makes it easier to design contextual rules. |
URI: | http://www.repositorio.ufc.br/handle/riufc/55073 |
Aparece nas coleções: | SISTEMAS E MÍDIAS DIGITAIS - Artigos |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2019_tcc_dbtabosa.pdf | 781,95 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.