Autores

4827
250,910
4828
250,910

Informações:

Publicações do PESC

Título
Revisão de Teorias Relacionais Probabilísticas Através de Exemplos com Invenção de Predicados
Linha de pesquisa
Inteligência Artificial
Tipo de publicação
Tese de Doutorado
Número de registro
Data da defesa
30/1/2009
Resumo

Aprendizado de máquina indutivo tem por objetivo o desenvolvimento de ferramentas e técnicas para induzir modelos a partir de observações e sintetizar novos conhecimentos através de experiências. Diferentes mecanismos de representação de conhecimento, como redes Bayesianas (RB) e teorias probabilísticas de primeira-ordem (TPPO), originam diferentes algoritmos de aprendizado. A maioria deles usa apenas o vocabulário fornecido explicitamente nos dados para construir os modelos. No entanto, informações implícitas sobre objetos do domínio podem enriquecer o processo de aprendizado, muitas vezes tornando o modelo aprendido mais eficiente e/ou compacto. É interessante, então, a extensão automática do vocabulário inicial, com novas estruturas que representem essas informações. Em RB essas estruturas são conhecidas como variáveis não-observadas e em aprendizado estatístico relacional predicados inventados probabilísticos. Por outro lado, em alguns casos, já existe um modelo que é aproximadamente correto podendo a sua estrutura ser alterada o mínimo possível de forma a refletir corretamente o dataset. Temos, então, um caso particular de aprendizado denominado revisão de teoria, a qual utiliza os exemplos para identificar pontos na estrutura do modelo que ao serem modificados melhoram a performance deste, denominados pontos de revisão, propondo modificações apenas neles. Nesta tese, nós investigamos os benefícios da extensão do vocabulário quando revisando modelos probabilísticos, utilizando uma abordagem discriminativa: as variáveis de consulta (em RB)/predicados objetivo (em TPPO) e as suas Coberturas de Markov são pontos de revisão. Operadores de revisão, baseados em invenção de novas estruturas, propostos por nós, são aplicados a esses pontos de revisão. Nossa proposta foi aplicada com sucesso em datasets artificiais e reais.

Abstract

Inductive Machine Learning aims to develop tools and techniques to induce mo-dels from observations and synthesize new knowledge through experiences. Different knowledge representation mechanisms, as Bayesian Networks (BN) and probabilistic first-order theories (PFOT), define different learning algorithms. The majority of them only uses the vocabulary provided explicitly in the dataset to construct the models. However, hidden information about domain objects, can enrich the learned models, sometimes making them more efficient and/or compact. Therefore, it is interesting to use techniques to automatically extend the initial vocabulary, considering new structures which represent those hidden informations. In BN, these structures are known as hidden variables and in statistical relational learning probabilistic predicate invented. From another aspect, an initial model approximately correct can be provided to the learning algorithms. In this case, one has a particular case of learning, called theory revision. Theory revision proposes modifications in potential points of the model indicated by the examples, called revision points, reducing the search space of possible models, using mechanisms, called revision operators, to propose modifications. In this thesis, we investigate the benefits of vocabulary extension when revising probabilistic models. To do so, we use a discriminative approach: the query variables (in BN)/ target predicates (in PFOT) and their Markov Blanket are the revision points. Revision operators, based on new structure introduction, proposed by us, are then applied to these revision points. Our proposals were successfully applied on artificial and real datasets.

Topo