Skip to content

Torvyn

Obter Atualização

  • Lar
  • criptomoeda
  • Lei Educacional
  • Esportes
  • Tecnologia
  • Realidade Virtual
  • Mais
    • Sobre nós
    • Contate-nos
    • Isenção de responsabilidade
    • política de Privacidade
    • Termos e Condições
  • Toggle search form
Por que os agentes precisam aprender a acreditar – O’Reilly

Por que os agentes precisam aprender a acreditar – O’Reilly

Posted on July 17, 2025 By Rehan No Comments on Por que os agentes precisam aprender a acreditar – O’Reilly

Os sistemas Agentic IA que nos deslumbram hoje com sua capacidade de sentir, entender e raciocinar estão se aproximando de um gargalo fundamental-não de poder computacional ou disponibilidade de dados, mas algo muito mais ilusório: a capacidade de navegar no mundo confuso e dependente de contexto de crenças, desejos e intenções dependentes do contexto.

O problema fica claro quando você assiste a esses sistemas em ação. Dê a um agente de IA uma tarefa estruturada, como processar faturas ou gerenciar o inventário, e ele tem um desempenho bonito. Mas peça para interpretar a verdadeira prioridade por trás de um email de executivo enigmático ou navegue pela dinâmica social tácita de uma rodovia, e você verá as limitações emergir. Pesquisas sugerem que muitas falhas de IA de empresas não decorrem de falhas técnicas, mas de Modelagem de crenças desalinhadas. Esses sistemas tratam os valores humanos como parâmetros estáticos, perdendo completamente a natureza dinâmica e sensível ao contexto da tomada de decisão no mundo real.

Essa lacuna se torna um abismo quando a IA passa da automação de rotina para domínios que requerem julgamento, negociação e confiança. A tomada de decisão humana é em camadas, contextual e profundamente social. Nós não apenas processamos fatos; Construímos crenças, desejos e intenções em nós mesmos e nos outros. Essa “teoria da mente” nos permite negociar, improvisar e adaptar de maneiras que a IA atual simplesmente não pode corresponder. Até os veículos autônomos mais ricos em sensores lutam para inferir a intenção de um olhar ou gesto, destacando o quão longe temos que ir.

A resposta pode estar em uma abordagem que está se desenvolvendo silenciosamente nos círculos de pesquisa de IA: o Estrutura de crença-desire-intenção (BDI). Enraizados na filosofia do raciocínio prático, os sistemas BDI operam em três níveis interconectados. Em vez de codificar todos os cenários possíveis, essa estrutura oferece aos agentes a arquitetura cognitiva para raciocinar sobre o que eles sabem, o que querem e o que estão comprometidos em fazer – bem como os seres humanos fazem com a capacidade de lidar com sequências de mudanças de crenças ao longo do tempo, incluindo possíveis mudanças conseqüentes na intenção depois da luz de novas informações.

Crenças Representar o que o agente entende sobre o mundo, incluindo ele e outros – informações que podem ser incompletas ou até incorretas, mas são atualizadas à medida que novos dados chegam. Desejos capturar o estado motivacional do agente, seus objetivos e objetivos, embora nem todos possam ser perseguidos simultaneamente. Intenções estão onde a borracha encontra o caminho: os planos ou estratégias específicos que o agente se compromete a executar, representando o subconjunto de desejos que ele busca ativamente.

Veja como isso pode acontecer na prática. A crença de um carro autônomo pode incluir dados de tráfego em tempo real e padrões aprendidos sobre o comportamento dos passageiros durante a hora do rush. Seus desejos abrangem alcançar o destino com segurança e eficiência, garantindo o conforto dos passageiros. Com base nessas crenças e desejos, ele forma intenções como redirecionar pelas ruas laterais para evitar um engarrafamento previsto, mesmo que isso signifique uma rota um pouco mais longa, porque antecipa uma jornada geral mais suave. Um exemplo disso seria diferentes padrões aprendidos de carros autônomos, à medida que são implantados em diferentes partes do mundo. (A “curva de gancho” em Melbourne, na Austrália, serve como uma atualização dos padrões aprendidos em carros autônomos, de outra forma não vistos em nenhum outro lugar.)

O verdadeiro desafio está em construir e manter crenças precisas. Muito do que importa nos contextos humanos – prioridades, restrições e intenções – é raramente declarado completamente ou capturado em dados corporativos. Em vez disso, estes são incorporados em padrões de comportamento que evoluem ao longo do tempo e situações. É aqui que o aprendizado observacional se torna crucial. Em vez de confiar apenas em instruções explícitas ou fontes de dados corporativas, a IA Agentic deve aprender a inferir prioridades e restrições observando e interpretando padrões comportamentais em seu ambiente.

Os sistemas modernos de consciência de crenças empregam técnicas sofisticadas para decodificar essa dinâmica tácita. Telemetria comportamental Rastreia interações sutis do usuário, como o cursor, ou os padrões de estresse de voz para superfície de prioridades ocultas. Redes de crenças probabilísticas Use modelos bayesianos para prever as intenções de comportamentos observados-os logins frequentes após o horário comercial podem sinalizar uma atualização iminente do sistema, enquanto picos repentinos nas consultas de banco de dados podem indicar um projeto de migração de dados urgentes. Em ambientes multi-agentesA aprendizagem de reforço permite que os sistemas refinem estratégias observando as respostas humanas e se adaptando de acordo. Na Infosys, reimaginamos uma solução de previsão para ajudar um grande banco a otimizar a alocação de financiamento de TI. Em vez de confiar em modelos de orçamento estáticos, o sistema poderia criar telemetria comportamental a partir de projetos de sucesso passados, categorizados por tipo, duração e mix de recursos. Isso criaria um sistema de crenças dinâmicas sobre “como é a boa aparência” na entrega do projeto. A intenção do sistema pode se tornar recomendando alocações ideais de fundos, mantendo a flexibilidade para reatribuir recursos quando ingerir mudanças nas prioridades regulatórias ou riscos imprevistos do projeto – emulando essencialmente o julgamento de um diretor de programa experiente.

A arquitetura técnica que apoia esses recursos representa uma evolução significativa dos sistemas tradicionais de IA. Os sistemas modernos de consciência de crenças dependem de arquiteturas em camadas, onde a fusão do sensor integra diversos insumos-dados de IIO, telemetria da interface do usuário, sinais biométricos-em fluxos coerentes que informam as crenças ambientais do agente. Os mecanismos de contexto mantêm os gráficos de conhecimento dinâmico que ligam os objetivos organizacionais aos padrões comportamentais observados, enquanto os módulos de substituição ética codificam diretrizes regulatórias como restrições flexíveis, permitindo a adaptação sem sacrificar a conformidade. Podemos reimaginar o atendimento ao cliente, onde os agentes orientados por crenças inferirem urgência de pistas sutis, como velocidade de digitação ou uso de emoji, levando a experiências de suporte mais responsivas. A tecnologia analisa padrões de fala, tom de voz e escolhas de idiomas para entender as emoções dos clientes em tempo real, permitindo respostas mais personalizadas e eficazes. Isso representa uma mudança fundamental do atendimento reativo ao cliente para a inteligência emocional proativa. Os sistemas de gerenciamento de construção também podem ser reimaginados como um domínio para a IA orientada a crenças. Em vez de simplesmente detectar a ocupação, os sistemas modernos podem formar crenças sobre padrões de uso de espaço e preferências do usuário. Um sistema HVAC com reconhecimento de crença pode observar que os funcionários no canto nordeste ajustam consistentemente os termostatos à tarde, formando a crença de que essa área fica mais quente devido à exposição ao sol. Poderia então ajustar proativamente os controles de temperatura com base nas previsões climáticas e na hora do dia, em vez de aguardar as queixas. Esses sistemas podem obter ganhos de eficiência mensuráveis, entendendo não apenas quando os espaços estão ocupados, mas como as pessoas realmente preferem usá -los.

À medida que esses sistemas se tornam mais sofisticados, os desafios da transparência e da explicação se tornam fundamentais. Auditando o raciocínio por trás das intenções de um agente – especialmente quando elas emergem de modelos complexos de estado de crença probabilística – exige novas abordagens para a responsabilidade da IA. A Lei da AI da UE agora exige as avaliações de impacto dos direitos fundamentais para sistemas de alto risco, exigindo que as organizações documentem como os estados de crença influenciam as decisões. Essa estrutura regulatória reconhece que, à medida que os sistemas de IA se tornam mais autônomos e orientados por crenças, precisamos de mecanismos robustos para entender e validar seus processos de tomada de decisão.

As implicações organizacionais de adotar a IA com reconhecimento de crenças se estendem muito além da implementação da tecnologia. O sucesso exige que as decisões sensíveis à crença nos fluxos de trabalho existentes, estabeleçam equipes multifuncionais para revisar e testar as intenções da IA e introduzir esses sistemas em domínios de baixo risco antes de dimensionar as aplicações de missão crítica. As organizações que repensam sua abordagem podem relatar não apenas melhorias operacionais, mas também maior alinhamento entre recomendações orientadas pela IA e julgamento humano-um fator crucial na construção de confiança e adoção.

Olhando para o futuro, a próxima fronteira está modelagem de crenças: Desenvolvimento de métricas para força de sinal social, desvio ético e equilíbrio de carga cognitiva. Podemos imaginar os adotantes iniciais que aproveitam esses recursos no gerenciamento inteligente da cidade e no monitoramento adaptativo de pacientes, onde os sistemas ajustam suas ações em tempo real com base no contexto em evolução. À medida que esses modelos amadurecem, os agentes orientados por crenças se tornarão cada vez mais hábeis em apoiar a tomada de decisões complexas e de alto risco, antecipando as necessidades, se adaptando à mudança e colaborando perfeitamente com parceiros humanos.

A evolução em direção a arquiteturas baseadas em crenças, baseadas em BDI, marca uma profunda mudança no papel da IA. Indo além de pipelines de Rodas do Sense, os futuros exige sistemas que podem internalizar e agir sobre as crenças, desejos e intenções implícitos que definem o comportamento humano. Não se trata apenas de tornar a IA mais sofisticada; Trata -se de tornar a IA mais compatível humana, capaz de operar nos ambientes ambíguos e socialmente complexos, onde as decisões mais importantes são tomadas.

As organizações que adotam esse desafio moldarão não apenas a próxima geração de IA, mas também o futuro dos parceiros digitais adaptativos, colaborativos e genuinamente inteligentes. Como estamos nesse ponto de inflexão, a questão não é se a IA desenvolverá essas capacidades, mas a rapidez com que podemos reimaginar e construir as fundações técnicas, estruturas organizacionais e estruturas éticas necessárias para realizar seu potencial com responsabilidade.

Tecnologia

Post navigation

Previous Post: Visualização da partida: 2024 WAFCON Quarter Final; Nigéria vs Zâmbia
Next Post: O agente ChatGPT cria decks de slides, planilhas de prompts

Mais Artigos Relacionados

O cartel de drogas invadiu o telefone do funcionário do FBI para rastrear e matar informantes, diz o relatório O cartel de drogas invadiu o telefone do funcionário do FBI para rastrear e matar informantes, diz o relatório Tecnologia
Idosos e juniores – O’Reilly Idosos e juniores – O’Reilly Tecnologia
Nivelado com jogos em nuvem – gigante entediado Nivelado com jogos em nuvem – gigante entediado Tecnologia
Renderização condicional no LWC – DevFacts | Blog de tecnologia | Comunidade de desenvolvedores Renderização condicional no LWC – DevFacts | Blog de tecnologia | Comunidade de desenvolvedores Tecnologia
Nintendo Switch 2 GameCube Controlador clássico Imprimir revela limitações Nintendo Switch 2 GameCube Controlador clássico Imprimir revela limitações Tecnologia
O guia ético do hacker para hackear wifi com o Termux O guia ético do hacker para hackear wifi com o Termux Tecnologia

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Últimas postagens

  • O agente ChatGPT cria decks de slides, planilhas de prompts
  • Por que os agentes precisam aprender a acreditar – O’Reilly
  • Visualização da partida: 2024 WAFCON Quarter Final; Nigéria vs Zâmbia
  • Explosão de Bitcoin de Michael Saylor: Insights e previsões –
  • a solução para o big data em uma fita? – Não

Categorias

  • criptomoeda
  • Esportes
  • Lei Educacional
  • Realidade Virtual
  • Tecnologia

Direitos Autorais © 2025 Torvyn.

Powered by PressBook Blog WordPress theme