|
|
IV.II.Sistemas Multi-Agentes
Na busca pela emulação das capacidades cognitivas humanas não se poderia deixar de fora os avanços na área da Inteligência Artificial Distribuída(IAD), mais especificamente nos sistemas Multi-Agentes. Teorias do modelo cognitivo humano como a Teoria da Equilibração das Estruturas Cognitivas de Piaget, têm servido de fonte inspiradora para a IA, mais especificamente na área de agentes cognitivos. [WAZ 93] A IAD preocupa-se com a resolução de um problema global
através da cooperação entre um grupo de entidades. A solução emerge através
da troca mútua de informação entre as entidades deste grupo. O termo
"distribuído" caracteriza a natural dispersão destas entidades, que
podem localizar-se geograficamente distantes.[HUNHS apud SIL 95] IV.II.I. Resolução Distribuída de Problemas (DPS) e Sistemas Multi-Agentes (MAS)A IAD pode ser dividida em duas grandes Áreas: Resolução Distribuída de Problemas (DPS) e Sistemas Multi-Agentes (MAS). Na resolução distribuída de problemas, os agentes cooperam uns com os outros, dividindo e compartilhando conhecimento sobre o problema e sobre o processo de obter uma solução. Nesta abordagem, os agentes são projetados especificamente para resolver aquele problema ou classe de problemas. Sob um ponto de vista externo, um sistema DPS é visto como uma unidade. O processo de coordenação das ações dos agentes é definido em tempo do projeto. [OLIVEIRA apud FLE 96] Em sistemas Multi-Agentes, o projetista não volta sua atenção para um problema específico, mas para um domínio específico. Nesta abordagem, a idéia consiste em coordenar o comportamento inteligente de um conjunto de agentes autônomos, cuja existência pode ser anterior ao surgimento de um problema em particular. Os agentes devem raciocinar a respeito das ações e sobre o processo de coordenação em si. As suas arquiteturas são mais flexíveis e a organização do sistema está sujeita a mudanças visando adaptar-se às variações no ambiente e/ou no problema a ser resolvido. [OLIVEIRA apud FLE 96] Problemas como descrever, decompor e alocar tarefas complexas; interação e comunicação entre agentes; coordenação do processo decisório; administração de conflitos e incertezas; linguagens e ambientes de programação em atividades multi-agentes, apesar de sua importância, não serão abordados em profundidade. O enfoque deste trabalho é centrado na manifestação individual do comportamento inteligente, importando aqui as características da arquitetura dos agentes que implicam nesse comportamento e não no intrincado relacionamento "social" entre os agentes. IV.II.II. Definição de AgentesPesquisadores tem proposto diversas definições para o termo "agente". Este trabalho aborda duas definições que abrangem as características essenciais dos agentes:
Para Shoham [apud VIE 98] um agente é uma entidade para qual são atribuídos estados denominados "mentais". Os estados mentais usuais são: crenças, decisões, capacidades, objetivos, intenções, compromissos e expectativas, conceitos análogos aos estados mentais humanos. Segundo Bastos [apud VIE 98], os agentes podem ser analisados e controlados em termos desses estados mentais. Os agentes necessitam dispor de certas propriedades para que sejam aptos a agir em um ambiente multi-agente: · Autonomia: capacidade dos agentes de realizar ações que os conduzam a concretizacão de algumas tarefas ou objetivos, sem a interferência do usuário final. Os agentes utilizam suas crenças, interesses, necessidades, desejos, etc. para realizarem as tarefas propostas.[HEILMANN apud FLE 96] ·
Mobilidade: habilidade
de mover-se de um local para outro, mantendo seu estado interno.[BELGRAVE apud
FLE 96] · Comunicabilidade: capacidade do agente do trocar informações com outras entidades, sejam elas objetos, outros agentes, humanos ou seu ambiente. [BELGRAVE apud FLE 96] · Aprendizagem: esta característica do agente está diretamente relacionada com o escopo deste trabalho, pois implica na habilidade do agente em representar o conhecimento sobre seu ambiente, examinar o sucesso anterior do suas ações e adaptá-las a futuras situações similares, aumentando assim a probabilidade de sucesso em suas metas [HEILMANN apud FLE 96]. Segundo Franklin e Graesser [apud FLE 96], aprendizagem é essa capacidade dos agentes em alterar seu comportamento baseado em experiências passadas. Um agente aprende quando utiliza essas experiências para modificar seu comportamento frente à novas situações [BELGRAVE apud FLE 96]. Essa habilidade trata-se do correlato computacional da inteligência da memória humana. Um outro tipo de aprendizagem é a aprendizagem cooperativa entre os agentes (ex: Protocolo de Aprendizagem Cooperativa [SIL 95]), onde o agente pode aprender não somente de suas próprias experiências, mas através de informações úteis obtidas pela interação com outros agentes. No exemplo citado, a interação ocorre através de nove primitivas que expressam atos de fala. Essa solução lembra os próprios meios do troca de informação entre os agentes humanos, que vão desde a escrita até métodos mais informais, porém não menos requintados, como o diálogo direto, onde atributos como ironia, expressão facial, entonação da voz fazem parte da informação transmitida. ·
Reatividade: agentes
percebem seus ambientes ( que podem ser o mundo físico, a interface com um usuário,
um conjunto de agentes, a Intemet, ou talvez uma combinação deles) e agem de
maneira oportuna às suas modificações. [WOOLDRIDGE
e JENNINGS apud FLE 96] · Sociabilidade: trata-se da interação com outros agentes através de algum tipo de linguagem e protocolo para comunicação entre agentes.[GENESERETH e KETCHPEL apud FLE 96] ·
Veracidade: trata-se
da suposição de que um agente não comunicará informações falsas. [WOOLDRIDGE
e JENNINGS apud FLE 96] · Benevolência: é suposição de que o agente não possuirá objetivos conflitantes entre si, e que muitos agentes sempre agirão no sentido de realizar o que lhes foi pedido. [ROSEINCHEIN e GENESERETH apud FLE 96] ·
Racionalidade: característica
segundo a qual um agente nunca irá agir contra a realização de seus
objetivos, mantendo assim a coerência. [GALLIERS
apud FLE 96] · Percepção: capacidade dos agentes de "sentir" o mundo e representar o conhecimento resultante dessa experiência sensitiva. [FLE 96] ·
Cooperação: qualidade
chave em um sistema multi-agentes. É necessária para que os agentes
trabalhem juntos na execução de tarefas mutuamente benéficas e
complexas, que um agente isolado jamais poderia resolver. [HEILMANN
apud FLE 96] · Antropomorfismo: capacidade dos agentes em exibir características humanas [RAMIREZ apud FLE 96]. No entanto, para que atinjam seus objetivos, agentes não necessitam obrigatoriamente demonstrar antropomorfismo. IV.II.III. Tipos de Agentes Agentes Reativos Não possuem memória de seus atos passados ou previsões para ações futuras, seu comportamento é basicamente de estímulo-resposta, motivado pela percepção de mudanças no ambiente. Uma sociedade de agentes reativos normalmente é composta de um grande número de membros e o comportamento "inteligente" global emerge da interação dessas entidades simples.[CORREA e SICHMAN apud SIL 95] Suas principais vantagens são a rapidez nas respostas e a simplicidade de representação do conhecimento [CORREA e OLIVEIRA apud SIL 95] . Mais uma vez, em analogia a modularidade da mente humana, os sensores táteis da pele humana poderiam ser considerados como agentes reativos, ao perceberem o toque (seu estímulo), reagiriam, enviando o sinal correspondente a este estímulo ao córtex sensorial responsável pelo processamento destes sinais. Não armazenam informações passadas e não alteram seu comportamento em função delas. Um exemplos de agente reativo pode ser visualizado em uma planta química, onde softwares agentes monitoram e reagem a sensores espalhados através desta planta e controlam complexos e variados processos. Agentes
Cognitivos ou Deliberativos Possuem uma representação explícita do ambiente e de outros agentes, podendo raciocinar sobre suas ações passadas e planejar ações futuras. Possuem um objetivo e sabem quais ações os levarão a atingi-lo, assim caracteriza-se sua inteligência. Dessa maneira, os agentes deliberam sobre determinada ação e a executam.[CORREA e SICHMAN apud SIL 95] Um agente cognitivo deve possuir um conhecimento completo do estado do seu ambiente e as alterações que suas ações são capazes de gerar. Para que possa interagir com outros agentes, é necessário também que ele saiba o que os outros agentes sabem sobre o mundo e sobre ele mesmo, isto conduz a idéia de processamento simbólico. Para representar os estados mentais, permitir comunicação, raciocínio e aprendizagem é necessário uma representação simbólica interna e também uma externa que permita a interação com outros agentes [SIL 95] Agentes
Sociais Mantém o
conhecimento do modelo particular de outros agentes. Está habilitado a rever e
atualizar suas crenças, objetivos e eventualmente seus planos, com base nesse
conhecimento. Raciocina sobre as intenções, comprometimentos e expectativas de
outros agentes, antecipando suas reações e inferindo comportamentos hipotéticos.
Considera seus modelos sobre os outros agentes no seu processo de tomada de
decisões e criação de planos. [BASTOS apud VIE 98] IV.II.IV. Arquitetura de Agentes A arquitetura de um agente diz respeito a especificação de como seus processos internos estruturam-se para permitir sua interação com o mundo externo.[SIL 95] A modelagem interna de um agente explicita o nível de conhecimento necessário à execução de suas metas e qual sua competência em relação à sociedade. Demazeau [apud SIL 95], dividiu os agentes em duas partes:
Essa classificação lembra aquela utilizada pelos sistemas especialistas para separar a representação do conhecimento dos mecanismos de inferência que atuam sobre este conhecimento. Um agente deve ser capaz de raciocinar sobre seu conhecimento, derivando so1uções possíveis para que seus objetivos sejam atingidos . Estas considerações são sintetizadas no modelo de agente genérico proposto por Demazeau [apud SIL 95], esquematizado na figura abaixo: FIGURA-7 Modelo de Agente Genérico Fonte : [Demazeau apud VIE 98] Pesquisas recentes tem apontado para a adoção de uma arquitetura interna híbrida para os agentes. Segundo esta proposta, agentes poderiam combinar as vantagens de cada arquitetura, assim poderiam contar com uma camada reativa, de resposta automática e tipicamente mais rápida; uma camada deliberativa, que planeja, raciocina e decide e também pode atualizar as respostas da camada reativa; e por último, uma camada de metagerenciamento, habilitada em avaliar, refletir e modificar estados e processos internos, quando necessário. Suspeita-se que os atributos emocionais humanos devam ser implementados nesta camada. Esta arquitetura (ex: ambiente de programação em MAS - SIM_AGENT) pode combinar o uso de redes neurais para a camada reativa e mecanismos de manipulação simbólica para o raciocínio na camada deliberativa e tarefas da camada de metagerenciamento. Conjectura-se que a natureza tenha adotado, através da evo1ução, esta arquitetura nos sistemas naturais, aliando respostas rápidas da camada reativa a capacidade de raciocínio das camadas mais elevadas. Para uma pesquisa mais aprofundada sobre esta arquitetura sugere-se uma pesquisa em [SLO 99]. Abaixo é apresentada uma ilustração de um agente contendo as três camadas:
FIGURA-8 Agente contendo
as três camadas. Fonte: [SLO 99] IV.II.V. Estados MentaisA definição das propriedades
dos agentes identificadas por estados mentais tem como principal referencial o
trabalho de Dennet [apud VIE 98], em que o autor define o termo sistemas
intencionais para identificar
sistemas cujo comportamento possa ser descrito através da atribuição de
atitudes mentais, tais como crenças, intenções, desejos, etc. Estes estados
seriam metáforas dos estados mentais humanos. Os estados mentais humanos possuem um vínculo com o mundo através do qual estabelecem sua existência e significância. A característica pela qual os estados mentais humanos são "acerca de", "referem-se a objetos ou situações do mundo", ou "se dirigem a" é chamada de intencionalidade. Crença, desejo, expectativa e intenção são exemplos de estados intencionais. Um seguimento da IA tem explorado modelos de agentes baseados em crenças, desejos e intenções (BDI-Belief, Desire and Intention). As idéias básicas desta abordagem são descrever o processamento interno do estado de um agente utilizando um conjunto de categorias mentais (crença, desejos e intenções) e definir uma arquitetura de controle através da qual o agente seleciona racionalmente o curso de suas ações. O comportamento de um agente pode ser definido como sendo fruto de suas observações, de seus conhecimentos e de suas interações com outros agentes.[VIC 00] Segundo Quaresma [apud VIC 00] , crenças do agente expressam suas expectativas sobre o estado atual do mundo e sobre a chance de uma ação ou conjunto de ações atingirem um certo efeito. As crenças representam as informações que o agente tem sobre o ambiente e sobre si próprio. Supõe-se que o agente atualiza continuamente suas crenças, refletindo mudanças detectadas no ambiente e que, sempre que uma nova crença é adicionada a consistência é mantida. No trabalho de Wooldridge [apud VIC 00], as crenças são modeladas usando a semântica de mundos possíveis. Nesse sentido, um conjunto de mundos possíveis é associado com cada situação. Segundo Correa [apud VIC 00], as crenças são fundamentais para a interação entre agentes, com noção idêntica a de conhecimento, cujo conteúdo externo é uma proposição. Conforme Muller [apud VIC 00], desejo é um conceito abstrato que especifica as preferências acerca dos estados futuros do mundo ou o curso das ações que o agente possivelmente quer que se verifiquem. Desejos podem ser inconsistentes, são intencionais e motivadores, não causam diretamente as ações, mas podem potencialmente gerar suas ocorrências. [VIC 00] Bratman [apud VIC 00] contesta o modelo desejo-crença, afirmando que os seres humanos constroem planos, que ajudam a guiar sua conduta e coordenar suas atividades no tempo, de uma forma que apenas os desejos e crenças comuns não são capazes. O fato de um agente possuir um desejo não significa ação imediata. Primeiro ele passará por um estágio de raciocínio onde confrontará seus desejos com suas convicções (circunstâncias atuais e restrições que o mundo impõe). [VIC 00] Intenções são caracterizadas pela escolha de um estado de eventos a alcançar, são vistas como um compromisso que o agente assume com um futuro possível específico. Uma vez que uma intenção é adotada, o agente procurará satisfazê-la e planejará ações para a1cançá-la. O replanejamento ocorre sempre que um fracasso acontece. Essas ações também devem ser adotadas como intenções por parte dos agentes. [VIC 00] Quando se projeta um agente, especifica-se suas crenças e seus desejos, ficando a cargo do agente escolher apropriadamente suas intenções a partir de seus desejos. [VIC 00] Shoham [apud VIE 98] define tais estados mentais em função da proposição de sua linguagem de programação intitulada agent-oriented programming (programação orientada a agentes). A base desta linguagem está na definição de que os estados mentais de um agente consistem de componentes tais como crenças, decisões, capacidades e obrigações. Para maiores detalhes recomenda-se a leitura de Shoham [SHO 93]. IV.II.VI. A Arquitetura Quadro Negro (BlackBoard)Nessa arquitetura de comunicação entre agentes, uma espécie de quadro negro é utilizada para efetuar a comunicação . Neste modelo, as fontes de conhecimento são assíncronas, anônimas, independentes e estruturadas de forma hierárquica. [FLE 96] Nesta estrutura de dados comum não há comunicação direta entre os agentes. A estrutura pode conter primitivas simbólicas (hipóteses), fatos, regras, organizados por vários níveis de abstração. [VIE 98] Outra arquitetura similar é a do quadro negro BB1, que surgiu em 1985 por Barbara Hayes-Roth [HAYES-ROTH apud FLE 96]. Esta arquitetura é bem ampla e geral, capaz de contemplar várias aplicações de sistemas especialistas e a cooperação e coordenação de agentes na resolução de problemas. Essa arquitetura é composta basicamente por três módulos que interagem: percepção, cognição e ação.[FLE 96] O que se percebe é que o módulo de cognição não se altera, enquanto que a percepção e ação sofrem algumas modificações para atender suas necessidades. O
subsistema Percepção compreende sensores e pré-processadores,
que adquirem informação sobre um ambiente dinâmico como base para o
subsistema cognição e ação. [FLE 96] O subsistema Ação, compreende efeitos, que apresentarão os resultados dos dados fornecidos no subsistema Percepção. [FLE 96] O subsistema Cognição domina todo o
conhecimento do agente e representa todo seu raciocínio. Ele
incorpora assincronamente informações percebidas dentro de sua base de
conhecimento. Ele executa uma variedade de tarefas de raciocínio baseado em
conhecimento, que variam através de diferentes ambientes, mas tipicamente
inclui: interpretação da informação
percebida; detecção e diagnóstico de eventos excepcionais; reação a eventos
importantes; predição de futuros eventos; modelagem dinâmica de sistemas
externos; planejamento a longo-prazo do curso de ação; explicação de suas
observações, inferências e planos; explicação de seu raciocínio;
aprendizagem para melhorar seu comportamento baseado em experiência; adaptação
de seu comportamento a condições ambientais. [FLE 96] Todas as operações de raciocínio ocorrem num contexto de uma memória global, a qual representa toda a informação do conhecimento para o agente. O subsistema cognição executa operações de raciocínio que são sugeridas e produz alterações nas informações na memória global. [FLE 96] O sistema Guardiã pode ser citado como exemplo de uso da
arquitetura BB1. É um sistema que monitora de forma simulada pacientes em
Unidades de Tratamento Intensivo(UTI). O
sistema foi criado em conjunto por várias Universidades (de Stanford , da
Florida, Atlantic, de Paris VI, de Madrid) e pelo Centro de Administração Médica
Pablo Alto Veterans. [HAYES-ROTH
apud FLE 96] |
|
|