Página de Trabalho de Aluno
Nome: Ricardo Guimarães Herrmann
Contribuições em outros capítulos
Link: A dinâmica de populações pode ser modelada por diversas formas, mas principalmente considerando os aspectos físicos. O artigo de Moussaïd et al. [1] mostra como regras simples podem modelar o comportamento de pedestres e desastres envolvendo multidões. Este modelo, em particular, é guiado por informação visual e prevê trajetórias individuais e padrões coletivos de movimento com bons resultados quantitativos em uma grande gama de dados empíricos e experimentais. As distâncias de obstruções nas linhas de vista dos agentes são responsáveis por sua decisão em mudar de velocidade e direção, similar ao que ocorre na abordagem de análise de vizinhança na simulação de bandos de pássaros (modelo passaróide ou boids) do artigo seminal de Craig Reynolds [2]. Moussaïd et al. mostram que a combinação das heurísticas comportamentais com forças de contato é responsável por um grande conjunto de complexas dinâmicas coletivas. Os autores, baseados nos bons resultados obtidos, também sugerem que a compreensão da dinâmica de multidões através de heurística cognitiva é fundamental para a preparação de eventos de massa seguros e que é igualmente importante na modelagem de populações e navegação de robôs autônomos.
Link: Tarefas básicas de inferência em modelos temporais (dos quais HMM é um caso particular), descritas no livro de Russell e Norvig (2003) [7].
- Filtragem (ou monitoramento): Calcular a distribuição posterior sobre o estado atual, dada toda a evidência até o momento. A filtragem é o que um agente racional precisa fazer, a fim de manter o controle do estado atual, de forma que possam ser tomadas decisões racionais.
- Previsão: Calcular a distribuição posterior sobre um estado futuro, dada toda a evidência até o momento. A previsão é útil para avaliar cursos de ação possíveis.
- Suavização (ou percepção tardia): Calcular a distribuição posterior sobre um estado passado, dada toda a evidência até o momento. A percepção tardia fornece uma estimativa melhor do estado do que a estimativa que estava disponível na época porque incorpora uma evidência maior.
- Explicação mais provável: Encontrar a sequência de estados que mais provavelmente gerou um conjunto de observações. Os algoritmos para esta tarefa são úteis em muitas aplicações, inclusive no reconhecimento de fala.
Link: Agentes dotados de mecanismos de simulação de emoções podem parecer ser mais reais, como conjectura Silverman [3], mesmo se desprovidos de mecanismos de raciocínio mais elaborados. Frente a isso, Silverman propõe um framework para facilitar o estudo de diferentes modelos de comportamento em agentes. A integração de computação emotiva ao modelo de agentes não apenas habilita-os a tomar melhores decisões mas também torna-os mais convincentes durante a interação com humanos. Entretanto, apesar de um bom esforço de modelagem, seu trabalho não reconstitui eventos históricos com simulação, o que ajudaria em muito na validação do modelo. É importante lembrar que comportamento convincente não é suficiente para o estudo do comportamento emergente.
Link: Sistemas baseados em regras são a principal forma de implementação de sistemas especialistas [4]. Este último tipo de sistema visa a construção de programas que simulam o conhecimento humano em algum domínio específico através de um processo mais semelhante à lógica humana, que é mais abstrata e descentralizada que especificações formais de resolução de problemas.
Link: Um problema prático dos primeiros sistemas baseados em regras é que cada regra era testada isoladamente sobre cada fato na memória. O algoritmo Rete [5], originalmente proposto em 1974, foi um marco importante nesta área, pois permitiu resolver problemas práticos, obtendo melhor performance às custas do uso adicional de memória por meio de uma representação em grafo dos fatos e regras, que encontra todos os objetos que casam com todos os padrões de forma eficiente e, em teoria, independente do número de regras no sistema. Rete suporta encadeamento progressivo de regras de inferência, e pode ser logicamente descrito como repetida aplicação de modus ponens ($(P \land (P \Rightarrow Q)) \Rightarrow Q$) [6].
Link: Dentre os principais sistemas baseados em regras que estendem o algoritmo Rete para uso em problemas de mais larga escala, podemos citar:
- CLIPS [21]: Inicialmente desenvolvido pela NASA mas agora de domínio público, é provavelmente uma das ferramentas mais utilizadas atualmente para a construção de sistemas especialistas, devido à sua velocidade e ao fato de ser um sistema aberto. É a implementação oficial de Rete II [22], um sucessor proprietário de Rete que, além de obter melhor performance em bases maiores [23], inclui outras melhorias como suporte a encadeamento regressivo.
- JRules [24]: Um tipo de Sistema de Gerenciamento de Regras de Negócio (Business Rule Management System (BRMS)) desenvolvido pela ILOG, posteriormente adquirida pela IBM. JRules emprega uma extensão de Rete denominada RetePlus [25], incremental, que proporciona maior desempenho para tipos de aplicações envolvendo computação e correlação.
Link: Tentando consolidar os diferentes aspectos e características de serviços, um artigo de Sampson e Froehle [18] busca estabelecer uma Teoria Unificada de Serviços (Unified Services Theory (UST)). Até então as tentativas de classificação não eram suficientes, pois definições negativas não ajudam na classificação e o critério de intangibilidade não é suficiente para uma definição concreta. Teorias e paradigmas são necessários para a evolução da disciplina de gerenciamento de serviços. O papel de ciência é a unificação e, portanto, o objetivo da Teoria Unificada de Serviços é encontrar uma "boa" teoria que unifique as várias ramificações de gerenciamento de serviços.
Link: Mercadologia é definida [20], assim como comercialização ou marketing, como "o conjunto de atividades que visam orientar o fluxo de bens e serviços do local onde são gerados para os consumidores ou usuários. Em sentido mais estrito, é o conjunto de técnicas coordenadas que permitem a uma empresa conhecer o mercado presente e potencial para determinado produto com a finalidade de maximizar o volume de vendas."
Link: Vargo e Lusch [19] propuseram um novo foco para a Mercadologia incorporando a ela o estudo serviços, o que transformou radicalmente a área. Inicialmente, a Mercadologia baseava-se em um modelo de câmbio herdado da Economia, que tinha uma lógica dominante baseada na troca de "bens", normalmente produtos manufaturados e tangíveis, onde o foco estava primariamente no aumento da eficiência da produção. Essa lógica passou por transformações, sob a nova perspectiva de que a provisão de serviços é mais fundamental para a economia que o setor de manufaturados, e os autores propõem nesse artigo que a atenção deve estar em:
- Recursos intangíveis, ao invés de tangíveis. Habilidades especializadas, conhecimento e processos ganharam mais atenção e devem ser a nova unidade de análise. Há ainda o desafio de gradualmente fazer com que serviços sejam vistos sob a mesma ótica de percepção de qualidadade de produtos por parte do público geral.
- Co-criação de valor, ao invés de valor embarcado. Neste novo cenário, produtor e consumidor colaboram para o desenvolvimento de produtos e serviços, diferentemente do que ocorre no cenário unilateral tradicional.
- Relacionamentos, ao invés de transações. A provisão de serviços e co-criação de valor implicam que relacionamentos sejam estabelecidos. O objetivo está em criar bons e duradouros relacionamentos para que os benefícios sejam mútuos. Um exemplo advindo da era pré-industrial é citado no artigo, onde cavaleiro e ferreiro discutiam o projeto de armaduras.
Link: A distribuição dos graus de conectividade dos nós de uma rede social online geralmente exibe uma cauda longa, mas nem sempre segue uma lei de potência (power-law). O artigo de Gjoka et al. [8] comprova que a distribuição verdadeira do grau dos nós no Facebook exibe dois regimes diferentes, com o número aproximado de 300 amigos separando as duas regiões da distribuição, onde cada uma delas é aproximável por uma lei de potência com parâmetros diferentes.
Link: Uma métrica importante de redes sociais online é a a assortatividade, uma característica dos nós de um grafo em relacionarem-se a outros similares ou diferentes por alguma medida estabelecida, geralmente por seus graus de conexão. A rede do Facebook, por exemplo, exibe alta assortatividade do grau de conexão [8], ou seja, usuários com alto grau de conexão em geral possuem conexões com outros usuários que também possuem alto grau de conectividade.
Link: Outro aspecto importante na análise de redes sociais [9] é a forma de amostragem destas redes, pois se for feita de modo inapropriado pode levar a análise a conclusões inválidas. O artigo de Gjoka et al. [8] examina meios de obtenção de subgrafos sociais evitando viés estatístico em casos onde não é possível selecionar usuários aleatoriamente.
Link: Alguns métodos de amostragem popularmente empregados, como busca em largura (Breadth-First-Search (BFS)) e passeio aleatório (Random Walk (RW)) mostram ser más escolhas [8]. BFS tem uma tendência a visitar nós de alto grau de conectividade quando a busca não é feita completamente (o que é praticamente uma necessidade em redes grandes) e por isso acaba cobrindo densamente apenas uma região do grafo. RW também tem o problema de preferir nós de alto grau de conectividade, como demonstrado por Lovász [10].
Link: Duas abordagens bem sucedidas [8] para amostragem sem viés de redes sociais online são:
- Passeio Aleatório Re-Ponderado (Re-Weighted Random Walk (RWRW)): Utiliza RW para a busca, introduzindo viés, mas que pode ser quantificado através de análise por cadeias de Markov e posteriormente corrigido através da introdução de pesos com o estimador de Hansen-Hurwitz [11]. Este método é um pouco mais eficiente computacionalmente que MHRW (apresentado a seguir) durante sua execução, mas o processamento posterior dos dados torna o processamento equivalente. É difícil testar a convergência online deste método usando diagnósticos de Gwecke [13] ou de Gelman-Rubin [14], pois estes precisam da correção dos pesos, que só é feita ao final do processo. Uma alternativa é a re-amostragem de importância simulada (Simulated Importance Resampling (SIR)) [17], mas esta exibe alguns problemas conhecidos de viés assintótico [12].
- Passeio Aleatório de Metropolis-Hasting (Metropolis-Hasting Random Walk (MHRW)): Obtém uma distribuição estacionária uniforme dos nós, modificando as probabilidades de transição ao invés de corrigir pesos posteriormente como faz RWRW. O algoritmo de MH [15] é uma técnica geral de Monte Carlo em Cadeias de Markov (Markov Chain Monte Carlo (MCMC)) [16] para amostragem de uma distribuição de probabilidades difícil de se obter diretamente. MCMC é uma técnica tipicamente utilizada para estimar algumas métricas, como por exemplo uma função da variável aleatória subjacente. MHRW pode repetir a visita a um nó e, por causa disso, tipicamente visita menos nós únicos que uma sequência de mesmo tamanho obtida por RW ou BFS. Diferente de RWRW, é fácil testar a convergência de MHRW online, pois não há necessidade de pós-processamento, e isto também provê uma vantagem adicional, que é a redução da possibilidade de que alguém mais usando os dados esqueça de fazer a re-ponderação.
Atividade 1: Screenshot do Jogo da Pizzaria

O jogo mostra claramente que o problema de servir todos os clientes de maneira ótima do ponto de vista global é insatisfazível: necessariamente algum cliente ou a pizzaria sofrerá perdas para que outro agente saia mais satisfeito. Para que o lucro possa ser otimizado, é necessário reduzir propositadamente a qualidade do serviço, pois duas penalidades pequenas somadas são menores que uma recompensa média acompanhada de uma penalidade grande (por exemplo, ao tirar uma pizza antes do forno para cortar e entregar logo para conseguir tirar a próxima pizza que já passou do ponto ao invés de entregar uma pizza conforme o pedido e outra que desvie muito do desejo do cliente).
Os valores dos parâmetros da simulação que não são expostas aos jogadores ultimamente ditam a política de comportamento que irá otimizar o lucro. Parte do desafio do jogo é inferir o modelo e os valores a partir da observação e experimentação conforme o passar das etapas e daí derivar uma estratégia que pode em teoria ser representada como um conjunto de regras a seguir, que descrevem o que fazer frente a cada situação encontrada. Na prática, isso irá constituir a intuição e a experiência do jogador, pois o conjunto de regras seria grande demais para um humano assimilar, mas ainda assim é possível que jogadores experientes obtenham uma grande pontuação, através de outros meios de raciocínio não completamente conhecidos que ocorrem no cérebro humano.
Screenshot do jogo IT Manager

Artigos:
Pinhanez
Mapa conceitual (incompleto) do artigo do Pinhanez:
Silverman
Algumas notas importantes sobre o artigo:
A hipótese de Silverman é que agentes dotados de mecanismos de simulação de emoções podem parecer ser mais reais, mesmo se desprovidos de mecanismos de raciocínio mais elaborados. Frente a isso, Silverman propõe um framework para facilitar o estudo de diferentes modelos de comportamento em agentes.
A integração de computação emotiva ao modelo de agentes não apenas habilita-os a tomar melhores decisões mas também torna-os mais convincentes durante a interação com humanos.
Apesar de um bom esforço de modelagem, ainda não foi possível reconstituir eventos históricos de rebelião, o que ajudaria em muito na validação do modelo, pois comportamento convincente não é suficiente para o estudo do comportamento emergente.