Вы находитесь на странице: 1из 31

Inteligncia Artificial

Aula 2 Prof Bianca Zadrozny

TCC04040 Inteligncia Artificial


Pgina web:
http://www.ic.uff.br/~bianca/ia

Material:
Livro texto: Inteligncia Artificial, Russell & Norvig, Editora Campus. Slides do curso disponibilizados na pgina.

TCC04040 Inteligncia Artificial


Ementa
Agentes inteligentes (Cap. 1 e 2) Resoluo de problemas por meio de busca (Cap. 3, 4 e 6) Representao de conhecimento e raciocnio atravs da lgica (Cap. 7, 8 e 9) Planejamento (Cap. 11) Conhecimento incerto e raciocnio probabilstico (Cap. 13 e 14) Aprendizagem a partir de observaes (Cap. 18 e 20) Fundamentos filosficos da inteligncia artificial (Cap. 26)

Agentes Inteligentes
Captulo 2 Russell & Norvig

Agentes
Um agente algo capaz de perceber seu ambiente por meio de sensores e de agir sobre esse ambiente por meio de atuadores.

Exemplos
Agente humano
Sensores: Olhos, ouvidos e outros rgos. Atuadores: Mos, pernas, boca e outras partes do corpo.

Agente robtico
Sensores: cmeras e detectores de infravermelho. Atuadores: vrios motores.

Agente de software
Sensores: entrada do teclado, contedo de arquivos e pacotes vindos da rede. Atuadores: tela, disco, envio de pacotes pela rede.

Mapeando percepes em aes


Seqncia de percepes: histria completa de tudo que o agente percebeu. O comportamento do agente dado abstratamente pela funo do agente: [f: P* A] onde a P* uma seqncia de percepes e A uma ao. O programa do agente roda em uma arquitetura fsica para produzir f. Agente = arquitetura + programa.

Exemplo: O mundo do aspirador de p

Percepes: local e contedo


Exemplo: [A, sujo]

Aes: Esquerda, Direita, Aspirar, NoOp

Uma funo para o agente aspirador de p


Seqncia de Percepes [A, Limpo] Ao Direita

[A, Sujo]
[B, Limpo] [B, Sujo] [A, Limpo], [A, Limpo]

Aspirar
Esquerda Aspirar Direita

[A, Limpo], [A, Sujo]


... [A, Limpo], [A, Limpo], [A, Limpo] [A, Limpo], [A, Limpo], [A, Sujo]

Aspirar
Direita Aspirar

...
Programa: Se o quadrado atual estiver sujo, ento aspirar, caso contrrio mover para o outro lado.

Agentes Racionais
Como preencher corretamente a tabela de aes do agente para cada situao? O agente deve tomar a ao correta baseado no que ele percebe para ter sucesso.
O conceito de sucesso do agente depende uma medida de desempenho objetiva.
Exemplos: quantidade de sujeira aspirada, gasto de energia, gasto de tempo, quantidade de barulho gerado, etc.

A medida de desempenho deve refletir o resultado realmente desejado.

Agentes Racionais
Agente racional: para cada seqncia de percepes possveis deve selecionar uma ao que se espera venha a maximizar sua medida de desempenho, dada a evidncia fornecida pela seqncia de percepes e por qualquer conhecimento interno do agente.
Exerccio: para que medida de desempenho o agente aspirador de p racional?

Agentes Racionais
Racionalidade diferente de oniscincia ou perfeio.
A racionalidade maximiza o desempenho esperado, enquanto a perfeio maximiza o desempenho real. A escolha racional s depende das percepes at o momento.

Mas os agentes podem (e devem!) executar aes para coleta de informaes.


Um tipo importante de coleta de informao a explorao de um ambiente desconhecido.

O agente tambm pode (e deve!) aprender, ou seja, modificar seu comportamento dependendo do que ele percebe ao longo do tempo.
Nesse caso o agente chamado de autnomo. Um agente que aprende pode ter sucesso em uma ampla variedade de ambientes.

PEAS
Ao projetar um agente, a primeira etapa deve ser sempre especificar o ambiente de tarefa.
Performance = Medida de Desempenho Environment = Ambiente Actuators = Atuadores Sensors = Sensores

Exemplo de PEAS: Motorista de Txi Automatizado


Medida de desempenho: viagem segura, rpida, sem violaes s leis de trnsito, confortvel para os passageiros, maximizando os lucros. Ambiente: ruas, estradas, outros veculos, pedestres, clientes. Atuadores: direo, acelerador, freio, embreagem, marcha, seta, buzina. Sensores: cmera, sonar, velocmetro, GPS, hodmetro, acelermetro, sensores do motor, teclado ou microfone.

Exemplo de PEAS: Sistema de Diagnstico Mdico


Medida de desempenho: paciente saudvel, minimizar custos, processos judiciais. Ambiente: paciente, hospital, equipe. Atuadores: exibir na tela perguntas, testes, diagnsticos, tratamentos. Sensores: entrada pelo teclado para sintomas, descobertas, respostas do paciente.

Exemplo de PEAS: Rob de seleo de peas


Medida de desempenho: porcentagem de peas em bandejas corretas. Ambiente: correia transportadora com peas; bandejas. Atuadores: brao e mo articulados. Sensores: cmera, sensores angulares articulados.

Exemplo de PEAS: Instrutor de Ingls Interativo


Medida de desempenho: maximizar nota de aluno em teste. Ambiente: conjunto de alunos. Atuadores: exibir exerccios, sugestes, correes. Sensores: entrada pelo teclado.

Propriedades de ambientes de tarefa


Completamente observvel (versus parcialmente observvel)
Os sensores do agente do acesso ao estado completo do ambiente em cada instante. Todos os aspectos relevantes do ambiente so acessveis.

Determinstico (versus estocstico)


O prximo estado do ambiente completamente determinado pelo estado atual e pela ao executada pelo agente. Se o ambiente determinstico exceto pelas aes de outros agentes, dizemos que o ambiente estratgico.

Propriedades de ambientes de tarefa


Episdico (versus seqncial)
A experincia do agente pode ser dividida em episdios (percepo e execuo de uma nica ao). A escolha da ao em cada episdio s depende do prprio episdio.

Esttico (versus dinmico)


O ambiente no muda enquanto o agente pensa. O ambiente semidinmico se ele no muda com a passagem do tempo, mas o nvel de desempenho do agente se altera.

Propriedades de ambientes de tarefa


Discreto (versus contnuo)
Um nmero limitado e claramente definido de percepes e aes.

Agente nico (versus multi-agente)


Um nico agente operando sozinho no ambiente. No caso multi-agente podemos ter
Multi-agente cooperativo Multi-agente competitivo

Exemplo
Xadrez com relgio
Completamente observvel Determinstico Sim Sim

Xadrez sem relgio


Sim Sim

Direo de Txi
No No

Episdico
Esttico Discreto Agente nico

No
Semi Sim No

No
Sim Sim No

No
No No No

O tipo de ambiente de tarefa determina em grande parte o projeto do agente. O mundo real parcialmente observvel, estocstico, seqncial, dinmico, contnuo, multi-agente.

Programas e funes de agentes


Um agente completamente especificado pela funo de agente que mapeia sequncias de percepes em aces. Uma nica funo de agente (ou uma nica classe de funes equivalentes) racional. Objetivo: encontrar uma maneira de representar a funo racional do agente concisamente.

Agente Dirigido por Tabela


Funo AGENTE-DIRIGIDO-POR-TABELA(percepo) retorna uma ao Variveis estticas:
percepes, uma seqncia, inicialmente vazia tabela, uma tabela de aes, indexada por seqncias de percepes, de incio completamente especificada

anexar percepo ao fim de percepes ao ACESSAR(percepes, tabela) retornar ao

Desvantagens:
Tabela gigante (xadrez = 10150 entradas) Tempo longo para construir a tabela No tem autonomia Mesmo com aprendizado demoraria muito para aprender a tabela.

Tipos bsicos de agentes


Quatro tipos bsicos, do mais simples ao mais geral
Agentes reativos simples Agentes reativos baseados em modelos Agentes baseados em objetivos Agentes baseados na utilidade

Agente Reativo Simples

Exemplo: Agente Reativo Simples


Funo AGENTE-ASPIRADOR-DE-P-REATIVO([posio,estado]) retorna uma ao se estado = Sujo ento retorna Aspirar seno se posio = A ento retorna Direita seno se posio = B ento retorna Esquerda

Regras condio-ao (regras se-ento) fazem uma ligao direta entre a percepo atual e a ao. O agente funciona apenas se o ambiente for completamente observvel e a deciso correta puder ser tomada com base apenas na percepo atual.

Agentes reativos baseados em modelos

Agentes reativos baseados em modelo


Funo AGENTE-REATIVO-COM-ESTADOS(percepo) retorna uma ao
Variveis estticas: estado, uma descrio do estado atual do mundo regras, um conjunto de regras condio-ao ao, a ao mais recente, incialmente nenhuma estado ATUALIZA-ESTADO(estado, ao, percepo) regra REGRA-CORRESPONDENTE(estado, regras) ao AO-DA-REGRA[regra] retornar ao

Agentes reativos baseados em objetivos

Agentes reativos baseados na utilidade

Agentes com aprendizagem

Вам также может понравиться