Вы находитесь на странице: 1из 4

Fundação Edson Queiroz

Universidade de Fortaleza - UNIFOR


Centro de Ciências Tecnológicas - CCT
Coordenação do Curso de Informática

Disciplina: Inteligência Artificial


Código: N519
Professor: André Coelho
Orientações: Esta lista cobre os Tópicos 1 a 2 da disciplina. Não vale pontos, não será resolvida
pelo professor, nem precisa ser entregue.

LISTA DE EXERCÍCIOS #1

1) Defina, com suas próprias palavras, os conceitos de “inteligência” e “cognição”, enaltecendo as


habilidades geralmente consideradas para que uma entidade possa ser considerada como “inteligente”.
2) Compare sucintamente as quatro visões (correntes de pensamento) da IA e indique em qual delas se
encaixa a abordagem GPS (General Problem Solver) de Newell & Simon. Por qual motivo (i.e., quais as
vantagens) se adotou no curso a visão centrada no conceito de agente racional?
3) Defina com suas próprias palavras a lógica por trás do princípio de “análise meio-fim” empregado pelo
GPS (General Problem Solver) para resolver problemas gerais. Indique alguns dos motivos técnicos
pelos quais o GPS não conseguiu atender às expectativas de projeto.
4) Um dos métodos que os humanos usam para fins de planejamento é a decomposição hierárquica de
problemas, em que problemas complexos são progressivamente decompostos em problemas menores e
inter-dependentes, gerando planos para lidar com cada subproblema. Tente aplicar esse princípio de
planejamento na seguinte tarefa que você realiza freqüentemente, gerando uma hierarquia de
subproblemas: acordar pela manhã e ir para a Unifor. Trace uma correlação desse processo de
decomposição com o princípio de “análise meio-fim”.
5) Qual a definição de “comportamento inteligente” sob o ponto de vista de Turing? Descreva a lógica por
trás do Teste de Turing, indicando os requisitos para que uma máquina possa obter êxito nesse teste.
Aponte pelo menos um aspecto positivo e outro negativo com relação a essa abordagem para definição
de inteligência, justificando. Finalmente, aponte uma estratégia que você, no papel de interrogador,
utilizaria para identificar quem seria a máquina e quem seria o humano, justificando.
6) Discorra sobre a idéia por trás do Teste de Turing reverso, contrastando esse teste com o original
proposto por Turing. Em que tipo de aplicação o Teste de Turing reverso vem sendo utilizado.
7) Apresente dois problemas comumente apresentados pelos métodos de representação e raciocínio lógicos.
8) Assinale (V) para “verdadeiro” ou (F) para “falso” nas assertivas a seguir:
( ) Segundo a IA simbólica, os ingredientes necessários para resolver um problema qualquer são: (1)
identificar o conhecimento do domínio; codificar esse conhecimento em um formalismo de
representação; e implementar um mecanismo computacional apropriado para manipulação desse
conhecimento, de modo a se gerar novo conhecimento.
( ) A prova automática de teoremas é o ramo mais antigo da IA, em que a resolução de um problema em
particular passa a ser encarado como um processo típico de demonstração de teoremas; nesse
processo, a descrição do (domínio do) problema, bem como outras informações relevantes, são
tratadas como axiomas lógicos.
( ) Uma característica fundamental dos sistemas especialistas é que sua estratégia para resolver
problemas é dependente de um especialista humano no domínio, comumente chamado de engenheiro
de conhecimento.
( ) A compreensão real de uma linguagem natural depende de um extenso conhecimento do domínio do
discurso e das expressões idiomáticas utilizadas naquele domínio, não sendo, contudo, necessário
lidar com conhecimento contextual nem como ambigüidades.

1
( ) Um silogismo é um termo filosófico com o qual Aristóteles designou a argumentação lógica perfeita,
constituída de três proposições declarativas que se conectam de tal modo que a partir das primeiras
duas, chamadas premissas, é possível deduzir uma conclusão.
( ) Um sistema especialista pode executar computações extensivas para resolver um problema, além do
que podem generalizar as soluções anteriores obtidas para novos problemas similares, ou seja,
aprender com a própria experiência.
9) Apresente as metáforas por trás dos seguintes paradigmas da IA: conexionista, estatístico e
evolucionista. Quais dos paradigmas adotam uma visão de “inteligência emergente” (ou seja, como um
fenômeno produzido a partir das interações coordenadas entre elementos autônomos mais simples)? Em
qual paradigma se encaixaria a “hipótese do sistema de símbolos físicos” formulada por Newell e
Simon? Comente brevemente sobre o que seria essa hipótese.
10) Segundo Luger, “as duas preocupações fundamentais dos pesquisadores em IA são representação de
conhecimento e busca”. Defina o que vem a ser essas duas áreas de pesquisa em IA.
11) Para as seguintes entidades, indique quais são interessantes (em termos de análise) de serem modeladas
como um agente: (a) ventilador de teto; (b) termostato; (c) câmera fotográfica digital com zoom
automático; (d) máquina de lavar roupa; (e) forno de microondas; (f) máquina de calcular; (g) quadro na
parede; (h) vitrola do seu avô; (i) agenda eletrônica; (j) programa anti-vírus; e (k) software de
recomendação de investimentos financeiros.
12) Defina os conceitos de “racionalidade”, “agente racional” e “racionalidade limitada”. Quais os fatores
necessários para um agente ser racional? Por que um agente que calcula uma simples raiz quadrada pode
ser considerado um agente racional?
13) Provenha a caracterização PEAS dos seguintes tipos de agentes: (a) piloto automático de um Boeing
747; (b) jogador de futebol de robôs; (c) agente de interface para auxílio a deficientes visuais; (d) agente
de locação (venda, aluguel) de imóveis pela Internet; e (e) agente de mineração de dados distribuídos.
14) Quais as principais diferenças entre os conceitos de agente e objeto? Indique um cenário de aplicação
em que você adotaria: (a) agentes mas não objetos simples; (b) objetos simples mas não agentes; e (c)
agentes ou objetos (i.e., tanto faz) para efeito de modelagem e implementação.
15) Considere as afirmativas a seguir:
1. A Inteligência Artificial é um ramo de pesquisa isolada da Ciência da Computação, já que não
interage com outras disciplinas.
2. Um ser humano não pode ser visto como racional porque nem sempre age perfeitamente, cometendo
erros.
3. Um dos motivos do interesse em se estudar agentes é porque essa abstração permite tratar melhor a
interação da máquina com o ambiente em que está imersa.
4. Diz-se que um sistema A emula outro B quando, para cada conjunto de entradas apresentado a
ambos, as suas saídas são idênticas, independentemente da forma como os sistemas estão
implementados na prática; ou seja, tanto o comportamento de A como o de B não podem ser
distinguidos por um observador externo.
5. A pró-atividade é uma das propriedades desejáveis, mas não necessárias, de um agente, e se traduz
na habilidade em responder prontamente a mudanças no ambiente.
6. Um agente para ser considerado racional precisa conseguir passar no Teste de Turing completo.
7. Um agente racional é aquele que realiza as melhores ações, tendo em vista maximizar o seu critério
de desempenho ao longo do tempo, sendo que ele só pode ser considerado como tal ao se analisar a
posteriori o real efeito de suas ações.
8. O conceito de “função de agente” diz respeito à especificação dada a priori pelo projetista do agente
acerca das ações que este deve realizar em todas as circunstâncias perceptivas que encontrar,
enquanto o conceito de “programa de agente” refere-se ao modo computacional pelo qual a “função
de agente” será implementada em consonância com a “arquitetura de agente” disponível.
9. Todo agente pode perceber suas próprias ações mas nem sempre os seus efeitos.

2
Somando as assertivas que são VERDADEIRAS, o resultado é (a) 8; (b) 15; (c) 13; (d) 9; (e) nenhum
dos itens anteriores.
16) Quais os seis eixos de categorização de ambientes de tarefa (i.e., problemas de agentes) adotados no
curso, levando em conta o ponto de vista de um agente? Caracterize os seguintes ambientes de tarefas
segundo tais eixos de classificação, justificando sucintamente: (a) agente de interface permitindo a
interação com múltiplos usuários ao mesmo tempo; (b) jogador de futebol de robôs simulado; (c) agente
de previsão metereológica; (d) agente móvel gerenciador da rede de computadores da Unifor; (e) agente
jogador de baralho; e (f) agente que faz sumários de notícias econômicas veiculadas por jornais
eletrônicos estrangeiros.
17) “Agentes reativos” são capazes de reagir prontamente a eventos inesperados sem que para tanto tenham
que lançar mão de procedimentos complexos, sendo, portanto, geralmente menos complexos que
“agentes deliberativos”. Estes, por sua vez, possuem modelos simbólicos do mundo, desenvolvem
planos com base nesses modelos e tomam decisões mais elaboradas a partir de procedimentos típicos de
resolução de problemas (por exemplo, via métodos de busca em espaço de estados). Já os modelos de
programas de agentes híbridos se baseiam na fusão das propriedades inerentes aos tipos acima. No livro-
texto, é discutido um exemplo de agente híbrido, o “agente reativo baseado em modelo”, sendo que suas
vantagens e desvantagens foram discutidas em aula. Como especialista em projeto de agentes que você é
agora, dê a sua opinião (ou seja, argumente se é possível ou não) acerca da possibilidade de se projetar
um segundo tipo de agente híbrido, que seria um “agente deliberativo com características adicionais de
reatividade”. Se tal modelo é factível, indique como seria o seu diagrama esquemático (de blocos), com
base naqueles apresentados para o agente deliberativo comum e agente reativo comum, e aponte uma
possível vantagem e uma possível desvantagem desse novo modelo.
18) Assinale (V) para “verdadeiro” ou (F) para “falso” nas assertivas a seguir:
( ) A “arquitetura do agente” representa a parte comportamental de um agente.
( ) Como regra geral, deve-se projetar medidas de desempenho de acordo com o resultado realmente
desejado no ambiente, em vez de criá-las de acordo com o comportamento esperado do agente.
( ) Um ambiente de tarefa adequado para um agente-tabela poderia ser dinâmico e seqüencial.
( ) Um agente deliberativo geralmente apresenta dificuldades quando seus objetivos estão em conflitos
entre si, ou quando há incertezas acerca do mundo, ou seja, quando o seu ambiente de tarefa é
estocástico.
( ) A distinção entre um ambiente determinístico ou estocástico deve ser feita sob o ponto de vista geral,
considerando todos os agentes que co-habitam um ambiente. Ou seja, não é possível que para um
agente A o mundo seja estocástico e para outro B seja determinístico.
( ) O comportamento de um agente reativo simples pode ser modelado por um conjunto de regras
condição-ação-reação, levando em consideração informações passadas a respeito do estado do
ambiente.
( ) Ambientes completamente observáveis são convenientes porque o agente não precisa manter
qualquer estado interno para controlar o mundo
( ) Ações reflexivas (como afastar a mão de um fogão quente) podem também ser vistas como racionais.
( ) O conceito de “utilidade” tenta capturar as preferências de um agente, tanto em relação aos estados
possíveis como impossíveis do mundo, escolhendo sempre aquele próximo estado cuja utilidade
esperada seja a maior.
( ) Para a implementação de uma dada função de agente, somente um único tipo de programa de agente
passa a ser o mais apropriado.
( ) O agente deliberativo, embora menos eficiente computacionalmente do que o agente reativo, é mais
flexível, uma vez que o seu conhecimento é representado explicitamente e pode ser modificado.
( ) Ambientes estáticos são mais fáceis de serem manipulados, pois não é preciso ficar continuamente
observando o mundo enquanto o agente delibera a próxima ação.
( ) Se a medida de desempenho do agente aspirador de pó fosse “manter o chão limpo”, tanto um agente
lerdo, que levaria anos para limpar, como um outro que faz tudo rapidinho poderiam ser racionais.

3
( ) Agir com a finalidade de obter mais dados perceptivos também faz parte da racionalidade.
( ) Os conhecimentos necessários para que um agente reativo baseado em modelo possa construir o seu
modelo do mundo são: saber como o mundo evolui independentemente de suas ações e saber qual o
impacto de suas ações no ambiente.
( ) A distinção entre um ambiente episódico e seqüencial depende do que está se considerando como um
episódio. Assim, o ambiente de tarefa para um agente jogador de xadrez pode ser ora episódico (p.
ex., se estamos considerando um episódio como sendo cada movimento de uma pedra do jogo) ou
seqüencial (p. ex., se estamos considerando um episódio como sendo uma partida inteira).
( ) Uma das desvantagens do programa de agente baseado em utilidade está na dificuldade em se
especificar a priori uma função de utilidade apropriada para o agente, principalmente em se tratando
de ambientes complexos e incertos.
( ) Um robô lunar pode ser visto como um agente adaptativo desde que tenha a capacidade de realizar
novas explorações (i.e., coletas de informações e aprendizado de como realizar subtarefas), cujo
conhecimento resultante a ser apreendido venha a facilitar a realização das suas metas iniciais de
projeto (p. ex., realizar o mapeamento completo da superfície lunar).
19) Responda aos itens a seguir:
a. Tanto a medida de desempenho quanto a função de utilidade medem o quanto um agente está
desempenhando bem suas atividades. Explique a diferença conceitual existente entre elas.
b. Dê um exemplo de uma possível regra adotada por um agente reativo baseado em modelo qualquer,
que lance mão de informações retratadas em seu modelo do mundo.
c. Para o agente aspirador de pó discutido em sala, foi apresentada uma tabela que representaria as
ações a serem tomadas por ele de acordo com a função de agente especificada. Nessa tabela,
constam como exemplos de entradas perceptivas as seqüências “[A, limpo], [A, limpo]” e “[A,
limpo], [A, limpo], [A, limpo]”. Explique em que circunstâncias essas seqüências perceptivas
poderiam realmente ocorrer.
d. Descreva textualmente uma possível nova função de agente racional para o agente aspirador de pó
cuja medida de desempenho fosse modificada de modo a deduzir um ponto a cada movimento seu. O
programa de agente correspondente a essa função exigiria estado interno? E para o caso de o
aspirador de pó que tem sensores mais potentes, com capacidade de fornecer o status de sujeira de
todos os quadrados ao mesmo tempo, o agente reativo simples já seria suficiente? Por quê?
e. Segundo a perspectiva de distinção entre “agente único X multiagente”, se a maximização do
desempenho de um agente B não depender do comportamento do objeto A, então A, sob a ótica de B,
não é visto como agente. Nesse contexto, seria possível ter-se um cenário/situação em que dois
agentes A e B co-habitam um mesmo ambiente físico, sendo que A percebe B como agente, mas B
não percebe A como tal? Dê um exemplo em caso afirmativo.
20) Levando em consideração o diagrama esquemático de um agente “adaptativo” (veja abaixo), descreva,
sucintamente, os papéis dos seus quatro componentes conceituais em destaque. É verdadeiro afirmar que
qualquer um dos outros tipos de programa de agente (reativo, baseado em modelo, deliberativo e
baseado em utilidade) pode desempenhar o papel do elemento de desempenho?

Вам также может понравиться