Mitos e Verdades sobreo Erro Humano - Eventos...

download Mitos e Verdades sobreo Erro Humano - Eventos Fehospeventosfehosp.com.br/2017/material/sao_paulo/qualidade_e_segura… · 1985 –Chernobyl –o maior acidente nuclear 1986 –Challenger

If you can't read please download the document

Transcript of Mitos e Verdades sobreo Erro Humano - Eventos...

  • Mitos e Verdades

    sobreo Erro Humano

    Maria Dolabela de Magalhães

  • Retrospectiva O entendimento do erro humano pela ciência.

    1. A história do estudo“erro humano”.

  • Mesopotânia - 1.700 ac

    Código de Hamurabi

  • São 282 leis

    RT 25 - 227“Se um construtor edificou

    uma casa e a casa caiu,

    se esse erro causou a

    morte do dono da casa,

    esse construtor será

    morto.”

    Código de Hamurabi

  • Até por volta de 1.900 o erro era visto como umafatalidade, acreditavam que os incidentes eramaleatórios, um azar, ou falta de proteção divina.

    Os estudos eram superficiaise pouco sistemá ticos!

  • Iní cio do sé c XX

    Frank & Lillian Gilbreth

    Engenheiros

    Pioneiros nos estudos de ergonomia

    Estudo dos movimentos das tarefas

    Influência da fadiga Diminuir erros de comunicação em centro cirúrgicos, através dos “ Call backs”

  • Primeira Guerra Mundial

    Major Greenwood and

    Hilda M Woods

    Fábricas de munições na Inglaterra

    Erros não eram aleatórios “Pronas aos acidentes”

    Mas nã o estudaram fatores especí ficos associados as

    tarefas que essas pessoas desempenhavam.

  • Distraido

    Irresponsável

    Incompetente

    Pouco

    comprometido

    Pouco

    Capacitado

    Falta de

    Atenção

    “Pessoas propensas ao erro”

  • O modelo teórico de “Pessoas propensas ao erro”

    dominou a pesquisa sobre o erro por 50 anos!

    “Pessoas propensas ao erro”

  • Os 12 anos entre 1976 a 1988 foram marcados por

    grandes acidentes, em todos eles o erro humano

    estava presente.

    Foi atravé s das investigaç õ es dos grandes

    desastres, que a indú stria começ ou a entender a

    base da Cultura e Gestã o da Seguranç a.

    Mas a ciência evoluiu...

  • 1970 – Apolo 13 – o tanke de oxigênio explodiu

    1976 – Seveso – vazamento químico1977 – Teneriffe – maior acidente aéreo da história1979 – Three Mile Island – usina nuclear1984 – Bhopal – indústria química (pesticidas)

    1985 – Chernobyl – o maior acidente nuclear1986 – Challenger – explosão do ônibus espacial

    1988 – Piper A lpha – plataforma de petróleo

    O erro humano esteve sempre envolvido nas

    causa de grandes acidentes!

  • Desastre de Tenerife,

    Domingo, 27 de março de 1977

  • Desastre de Tenerife,

    Domingo, 27 de março de 1977

    Um atentado terrorista no aeroporto de Las Palmas.

    O aeroporto de Tenerife congestiona.

  • Desastre de Tenerife,

    Domingo, 27 de março de 1977

    Aguardando autorização para decolagem estavam dois Boing-747 , um

    da KLM e outro da PanAm.

    Um atentado terrorista no aeroporto de Las Palmas.

    O aeroporto de Tenerife congestiona.

  • Desastre de Tenerife,

    Domingo, 27 de março de 1977

    Tanto o comandante da PanAm, Victor Grubbs como o da KLM, o

    comandante Jacob van Zanten, tinham milhares de horas de voo, muita

    experiência e conceituada reputação.

    Aguardando autorização para decolagem estavam dois Boing-747 , um da

    KLM e outro da PanAm. Os dois com pressão comercial para decolagem.

    Um atentado terrorista no aeroporto de Las Palmas.

    O aeroporto de Tenerife congestiona.

  • Desastre de Tenerife

  • Desastre de Tenerife

    Houve falha na comunicação e o PanAm ultrapassou a saída C3 e saiu

    equivocadamente, pelo quarto acesso lateral esquerdo (C4). Em C4 a curva

    era menor.

  • Desastre de Tenerife

    Houve falha na comunicação e o PanAm ultrapassou a saída C3 e saiu

    equivocadamente, pelo quarto acesso lateral esquerdo (C4). Em C4 a curva

    era menor.

    O piloto holandês abre as manetes para a decolagem. O controlador

    espanhol ficou confuso e pediu que o KLM se mantivesse em Standby.

    Houve interferência na transmissão.

  • Desastre de Tenerife

    Houve falha na comunicação e o PanAm ultrapassou a saída C3 e saiu

    equivocadamente, pelo quarto acesso lateral esquerdo (C4). Em C4 a curva

    era menor.

    Devido ao nevoeiro, a tripulação holandesa não podia ver o jumbo da

    PanAm taxiando na pista algumas centenas de metros logo a frente deles.

    Quando conseguiu ver, era tarde demais.

    O piloto holandês abre as manetes para a decolagem. O controlador

    espanhol ficou confuso e pediu que o KLM se mantivesse em Standby.

    Houve interferência na transmissão.

  • Desastre de Tenerife

    Houve falha na comunicação e o PanAm ultrapassou a saída C3 e saiu

    equivocadamente, pelo quarto acesso lateral esquerdo (C4). Em C4 a curva

    era menor.

    Devido ao nevoeiro, a tripulação holandesa não podia ver o jumbo da

    PanAm taxiando na pista algumas centenas de metros logo a frente deles.

    Quando conseguiu ver, era tarde demais.

    Apesar das considerações e preocupações do engenheiro de cvoo,

    prevaleceu a decisão do piloto.

    O piloto holandês abre as manetes para a decolagem. O controlador

    espanhol ficou confuso e pediu que o KLM se mantivesse em Standby.

    Houve interferência na transmissão.

  • Desastre de Tenerife

    Foram 583 mortos e 61 feridos.

  • LIÇÕES APRENDIDAS

    1) Mesmo pessoas muito bem intencionadas e experientes erram.

    Depois dessa tragédia as decisões críticas de vôo, devem ser tomadas

    com base na concordância de todos os membros da tripulação técnica.

    2) Pressões externas por prazo e produção devem ser pesadas em

    relação ao risco de desastres maiores. Em situações especiais a

    segurança nunca pode ser colocada em segundo plano.

    Desastre de Teneriffe

  • LIÇÕES APRENDIDAS

    3) Para as informações críticas a comunicação deve ser

    padronizada. As tripulações devem confirmar as orientações repetindo

    as partes essenciais das instruções recebidas, mostrando com isso um

    entendimento comum.

    4) O ambiente e a infraestrutura são importantes para a segurança.

    A infraestrutura do aeródromo não era adequada para o tipo de

    operação que estava sendo realizada. Após esse acidente, várias

    obrigações passaram a ser exigidas nos aeródromos.

    Desastre de Teneriffe

  • Retrospectiva O entendimento do erro humano pela ciência.

    2. Evolução conceitual: James Reason

  • James Reason

    Em 1970 ele estava fervendo água para um chá e o gato entrou com um miado estridente, pedindo comida na cozinha.

    Ele abriu o pote de comida do gato e colocou uma colher grande de comida do gato no pote de chá.

    Esses incidentes acontecem em vários momentos em nossa vida. Acontecem em atividades em que estamos acostumados e entramos no “modo automático”.

  • A mesma troca da comida do gato feita numa usina nuclear, numa avião ou num hospital, pode matar alguém!

    Os erros não são intrinsicamente ruins.

    Não são os processos psicológicos que determinam a natureza do erro e sim as circunstâncias em que eles

    acontecem que determinam suas consequências.

    Sobre os Erros

    James Reason

  • Tipo de erro

    Omissã o – não fazer

    Execuç ã o – fazer errado

    De acordo com Reason and Hobbs, a maioria

    dos erros de manutenção são “Comission” na execução.

    James Reason

  • Toda ação tem:

    Plano Execução Consequência

    James Reason

  • 1. Plano

    Você tem uma intensão de atingir um objetivo Exsitem várias maneiras para atingir, mas você escolhe o plano errado e não atinge o objetivo desejado.

    James Reason

    2. Aç ã o / Execuç ã o

    O plano estava correto mas a ação não ocorreu como planejado.

    3. Consequê ncia

    A consequência depende em que circunstância acontece aquele erro.

  • Definição de erro

    “O termo erro será aplicado em todas as ocasiões onde a sequencia de atividades

    planejada, mental ou física falha em atingir as

    metas desejadas, sem interferência de outra coisa

    qualquer.”

    A L ife in Error, 2013

    James Reason

  • Ação

    Intensional

    Ação não

    Intensional

    Violação

    Engano

    Lapso

    Deslize

    Cultura

    Atalho

    Pouca consciência de risco

    Tomada de decisão ( KB)

    Falta de informaçãoRegras inadequadas (RB)

    Skill base ( SB) – falha de memória

    Desastrado

    Skill base ( SB) – falha de atenção

    Skill base ( SB) – falha motora

    James Reason

  • Situaç ã o

    Problema

    s Difí ceis

    ou Novos

    Problemas

    Familiares

    Rotina

    Esperada

    Principalmente

    Consciente

    Modo de Controle

    Principalmente

    Automá tico Consciente e

    Automá tico

    Knowlege -

    based Level

    Rule -based

    Level

    Skill -based

    Level

  • 10 Princípios

    1. O erro humano é universal e inevitável

    2. Erros não são intrinsicamente ruins

    3. Você não pode mudar a condição humana, mas pode mudar a

    condição em que o homem trabalha

    4. As melhores pessoas podem fazer os piores erros

    5. Pessoas não podem evitar os atos que eles não tinham intensão de

    fazer

    6. Erros são consequências, e não causas

    7. Muitos erros recorrem em modelos parecidos

    8. Erros podem ocorrer em qualquer nível da organização

    9. A Gestão do risco é dinâmica, em continua mudança

    10. A gestão das tarefas de manutenção, são os maiores desafios.

    James Reason

  • Estuda o Ser Humano e suas relações, e como essas relações podem levar ao erro.

    Estuda quais as causas que podem limitar o desempenho humano.

    Ser Humano x ProcessosSer Humano x EstruturaSer Humano x Ambiente FísicoSer Humano x Ambiente psicológico (Equipe) Ser Humano x Ser Humano (Situação pessoal)

    Fatores Humanos

  • Conceito SHELL

    ESL

    L

    HS = Software (Organização dos processos) H = Hardware (Estrutura)

    E = Environment (Ambiente físico)

    L = Liveware (Ambiente psicológico)

    L = Liveware (Situação pessoal)

    35

    O modelo SHEL (Edwards 1072, International Civil Aviation

    Organization) e sua evolução para SHELL (Hawkins,1975) foram feitos

    para aviação.

    Fatores Humanos

  • O Ser Humano é o centro e o mais crítico e flexível componente do sistema.

    Ser humano tem limitações PREVISÍVEIS

    O sistema tem que estar desenhado para prever essas limitações.

    Fatores Humanos

  • • Fluxo ocorre quando o desafio estácompatível com a habilidade.

    • Fluxo é um estado de absorção e complete concentração em suaatividade.

    Habilidades

    Desa

    fio

    Monótono

    Ansi

    edade

    Apatia

    The Yerkes-Dodson Law

    • Existe um ponto de exitaçãocerta para melhor performance

    FLUXOMihaly Csikszentmihalyi

    PERFORMANCE

    Fatores Humanos

  • Resultados de 3 estudos americanos e japoneses.

    A relação entre o tipo de atividade e a quantidade de problemas em usinas nucleares.

    Tipo de Atividade % de Problemas de

    Performance Humana

    Manutenção, testes e calibração 42 - 65%

    Operações do dia a dia 8 - 30%

    Operações de emergências ou novas 1 - 8%

    Managing Maintenance Error. A Practical Guide

    James Reason and Alan Hobbs, 2003

    PERFORMANCE

    Fatores Humanos

  • INTERRUPTIONS AND DISTRACTIONS IN THE TRAUMA OPERATING ROOM:UNDERSTANDING THE THREAT OF HUMAN ERROR

    STUDY CONDUCTED AT THE JACKSON MEMORIAL HOSPITAL / RYDER TRAUMA CENTER, MIAMI, FL, USAAUTORES: PEREIRA BMT, PEREIRA AMT, CORREIA CS, MARTTOS JR AC, FIORELLI RKA,FRAGA GP..

    • Observaram 50 casos de trauma, por 12 horas

    • Determinantes de distrações/interrupções e o volume de ruídos na sala de cirurgia

    • Média de 60 interrupções ou distrações por ato cirúrgico

    • Média de barulho de 85 dB (barulho aceitável 56 dB- ISO(ISO 9921).

    Observação: o barulho e as interrupções atrapalham a comunicação e cognição

    Fatores Humanos

  • • Uma vez que os erros humanos na interação com produtos e processos são inevitáveis,

    • Em função de fatores como as pressões do ambiente e as limitações físicas e cognitivas dos seres humano,

    A presença de barreiras contra acidentes é uma medida necessária. (RASMUSSEN, 1997).

    Fatores Humanos

  • Todo sistema está

    perfeitamente projetado para

    obter os resultados que obtém.

  • Decisões Organizacionais

    Estratégia / Cultura

    Barreiras de DefesaNo mundo ideal devreiam ser intactas!

    Condições / Ambiente

    Local de Trabalho

    Time de Trabalho

    Protocolos

    PadronizaçãoConsciência

    do Risco

    Capacitação

    Teoria do Queijo Suiço

    Perigo

    Paciente

  • Perigo

    Teoria do Queijo Suiço

    PacienteAmbiente com

    alto grau de stress

    Não colocar a segurança

    como prioridade

    Cultura Punitiva

    Protocolo

    Pouco efetivo Falta de

    Feedback

    Barreiras de DefesaNo mundo real existem buracos, falhas!

    Condiç õ es Latentes

  • Perigo

    Teoria do Queijo Suiço

    Paciente

    Falhas Ativas

    Barreiras de Defesa

    Uma das barreiras de defesafuncionou!

  • Perigo

    Possível

    ACIDENTE

    Paciente

    Evento

    Adverso

    Teoria do Queijo Suiço

    Barreiras de defesa foraminefetivas

    Alinhamento das Falhas Ativas

  • Cultura de Segurança

  • Cultura de Seguranç a

    CulturaAprendizado

    CulturaJusta

    CulturaNotificação

    James Reason, 2000

  • “A Criminalização levou por exemplo, a uma medicina defensiva, não à um cuidado de

    qualidade, e até mesmo levou à uma maior

    probabilidade de ocorrência de acidentes.”

    Dauer ,2004

    Cultura de Aprendizado

  • “Culpar e punir as pessoas não as faz parar de cometer erros e sim parar de Notificar e poder

    aprender com eles.”

    Just culture: who gets to draw the line ? Sidney Decker ,2008

    Cultura de Aprendizado

  • No blame

    Just culture

    Blame

    Cultura Justa

  • Decker, 2003

    Cultura Justa

    Uma cultura justa vai compatibilizar o

    aprendizado com a responsabilizaç ã o.

  • “Cometer erros faz parte da vida humana como comer e

    dormir”.

    James Reason

  • OBRIGADA!

    MARIA MAGALHÃES

    [email protected]