Espacios. Vol. 34 (4) 2013. Pág. 2


A abordagem nebulosa nos processos de manutenção centrada em confiabilidade

The approach nebula processes in reliability centered maintenance

Joel Alves Batista 1 y Carlos Roberto Camello Lima 2

Recibido: 13-11-2012 - Aprobado: 23-02-2013


Contenido

Gracias a sus donaciones esta página seguirá siendo gratis para nuestros lectores.
Graças a suas doações neste site permanecerá gratuito para os nossos leitores.
Thanks to your donations this site will remain free to our readers.

RESUMEN:
O objetivo deste trabalho é contribuir para a análise da disponibilidade de sistemas reparáveis de modo a permitir compreensão de seus processos e relações com o meio em que estão inseridos e, assim, entender as condições que levam ao aumento da produtividade dos mesmos com a qualidade e segurança ambiental desejáveis, e descrever as abordagens probabilística e nebulosa ou fuzzy, buscando compreender o escopo de cada uma delas na modelagem de processos de manutenção. Na existência de banco de dados, a abordagem probabilística modela, satisfatoriamente, os processos de tomada de decisão em manutenção. No entanto, quando os dados não são confiáveis, imprecisos ou não existem, a abordagem nebulosa tem se destacado por permitir a modelagem do raciocínio incerto e impreciso, próprio do ser humano. Embora grande parte das indústrias não possua um banco de dados adequados à análise convencional de falhas, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa é útil para modelar o conhecimento armazenado na forma tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção.
Palavras Chaves: Manutenção Baseada em Confiabilidade, Abordagem Probabilística, Abordagem Fuzzy.

ABSTRACT:
The objective of this work is to contribute to the analysis of the availability of repairable systems to enable understanding of its processes and relationships with the environment where they are inserted and thus understand the conditions that lead to their productivity increase with the same quality and desirable environmental safety, and to describe probabilistic and fuzzy approaches trying to understand the scope of each of them in modeling maintenance processes. When a database is available, the probabilistic approach models satisfactorily the processes of decision making in maintenance. However, when the data are unreliable, inaccurate or nonexistent, the fuzzy approach has been highlighted by allowing the modeling of uncertain reasoning and inaccurate, characteristic of human being. While most industries do not have a database suitable for conventional analysis of failures, there are experts who have the knowledge about the operation of its processes. A fuzzy approach is useful for modeling the knowledge stored in tacit form by specialists, helping the process of decision making in the planning of maintenance activities.
Keywords: Reliability Centred Maintenance, Availability Systems, Environmental Safety, Fuzzy Approach, Probabilistic Approach.


1. Introdução

A globalização dos mercados e cenários altamente competitivos tem exigido que as empresas façam uso, em todos seus processos produtivos, de uma visão estratégica de modo a permitir aumentar a produtividade, competitividade e assim, adquirir posicionamento adequado no mercado. Tendo em visto que a produtividade está relacionada à redução dos custos e pode propiciar aumento de faturamento, melhorias na confiabilidade e disponibilidade dos equipamentos produtivos podem contribuir significativamente para aumentar a competitividade das organizações (Santos et al. 2007; Marquez et al. 2009; Niu et al. 2010).

Visando a aumentar sua competitividade através de melhorias na gestão da manutenção de seus equipamentos, as organizações têm buscado programas de manutenção como, por exemplo, a Manutenção Produtiva Total (TPM) ou a Manutenção Centrada em Confiabilidade (RCM), como vantagem competitiva (Fogliato, Ribeiro, 2009).

Durante muito tempo, as indústrias funcionaram com o sistema de manutenção corretiva, ou seja, o reparo após a falha inesperada. Com isso, ocorriam desperdícios, retrabalhos, perda de tempo e de esforços humanos, além de prejuízos financeiros. A partir de uma análise desse problema, passou-se a dar ênfase na prevenção da manutenção. Com enfoque nesse tipo de manutenção, foi desenvolvido o conceito de manutenção produtiva total, conhecido pela sigla TPM (Total Productive Maintenance), que inclui programas de manutenção preventiva e preditiva.

A manutenção preventiva teve sua origem nos Estados Unidos e foi introduzida no Japão em 1950. Até então, a indústria japonesa trabalhava apenas com o conceito de manutenção corretiva, após a falha da máquina ou equipamento. Isso representava um custo e um obstáculo para a melhoria de qualidade. Na busca de maior eficiência da manutenção produtiva, por meio de um sistema compreensivo, baseado no respeito individual e na total participação dos empregados, surgiu a TPM, em 1970, no Japão. Nessa época verificava-se:

a) Avanço na automação industrial;

b) Busca em termos de melhoria da qualidade;

c) Aumento da concorrência empresarial;

d) Emprego do sistema ‘jus-in-time’;

e) Maior consciência de preservação ambiental e conservação de energia;

f) Dificuldades de recrutamento de mão-de-obra para trabalhos considerados sujos, pesados ou perigosos;

g) Aumento da gestão participativa e surgimento do operário polivalente

Todas essas ocorrências contribuíram par o aparecimento da TPM. A empresa usuária da máquina se preocupa em valorizar e manter o seu patrimônio, pensando em termos de custo do ciclo de vida da máquina ou equipamento. No mesmo período, surgiram outras teorias com os mesmo objetivos.

Os cinco pilares da TPM são as bases sobre as quais se constrói um programa de TPM, envolvendo toda a empresa e habilitando-a para encontrar metas, tais como defeito zero, falhas zero, aumento da disponibilidade de equipamento e lucratividade (Nakajima, 1989). Os cinco pilares são representados por:

a) eficiência;

b) auto reparo;

c) planejamento;

d) treinamento;

e) ciclo de vida.

Os cinco pilares são baseados nos seguintes princípios (Nakajima, 1989):

a) Atividades que aumentam a eficiência do equipamento.

b) Estabelecimento de um sistema de manutenção autônomo pelos operadores.

c) Estabelecimento de um sistema planejado de manutenção. TPM – Manutenção Produtiva Total

d) Estabelecimento de um sistema de treinamento objetivando aumentar as habilidades técnicas das pessoas.

e) Estabelecimento de um sistema de gerenciamento do equipamento.

O objetivo global do TPM é a melhoria da estrutura da empresa em termos materiais (máquinas, equipamentos, ferramentas, matéria-prima, produtos etc.) e em termos humanos (aprimoramento das capacitações pessoais envolvendo conhecimento, habilidades e atitudes). A meta ser alcançada é o rendimento operacional global (Wireman, 1991).

As melhorias devem ser conseguidas por meio dos seguintes passos:

a) Capacitar os operadores para conduzir a manutenção de forma voluntária.

b) Capacitar os mantenedores a serem polivalentes.

c) Capacitar os engenheiros a projetarem equipamentos que dispensem manutenção, isto é; o “ideal” da máquina descartável.

d) incentivar estudos e sugestões para modificação dos equipamentos existentes a fim de melhorar seu rendimento.

As empresas de classe mundial, como forma de garantir a sua competitividade e a consequente perpetuação no mercado, adotam a prática da metodologia do RCM (Reliability Centred Maintenance) ou Manutenção Centrada em Confiabilidade. A metodologia RCM, como é mais usualmente referenciada, é usada para determinar os requisitos de manutenção de qualquer item físico no seu contexto operacional. Para isso, a metodologia analisa as funções e padrões de desempenho: de que forma ocorre a falha, o que causa cada falha, o que acontece quando ocorre a falha e o que deve ser feito para preveni-la. Como resultado, obtém-se um aumento da disponibilidade, o que permite um aumento de produção (Nascif, 2000; Souza, Lima, 2003). A metodologia RCM teve sua origem na década de 60, na indústria aeronáutica americana. Desde então, vem sendo aplicada com sucesso por muitos anos, primeiramente na indústria aeronáutica e, mais tarde, nas usinas nucleares, refinarias de petróleo e muitas outras indústrias (Rausand, 1998).

O objetivo principal da RCM é criar rotinas estratégicas de manutenção que assegurem aos equipamentos cumprir as suas funções determinadas de forma mais econômica possível. (Rao et al. 1996; Santos et al. 2007).

A manutenção centrada em confiabilidade é um programa que combina técnicas de engenharia e uma abordagem sistemática a fim de garantir que os equipamentos e sistemas mantenham suas funções originais. A principal ideia embutida na RCM é a de que ela devolve a disponibilidade dos equipamentos, confiabilidade, qualidade dos produtos, segurança. Através destes princípios a RCM busca desenvolver um programa ótimo de manutenção (Bloom, 2006; Fogliato, Ribeiro, 2009).

Este artigo aborda a Manutenção Centrada em Confiabilidade (RCM), de modo a identificar a crescente importância desta forma de gestão da manutenção para o aumento da competitividade. Descreve o cabedal matemático necessário para discorrer sobre função confiabilidade. Além de descrever a Metodologias Nebulosas para modelagem da Confiabilidade de Sistemas.

O trabalho tem característica qualitativa e quantitativa. A pesquisa qualitativa caracteriza-se pela interpretação de fenômenos e a atribuição de significado e não requer ferramentas do campo da estatística. A pesquisa quantitativa, por sua vez, requer a tradução em números de opiniões e informações para classificá-la e analisá-la. Pode ser ainda classificado como exploratório, pois, tem o objetivo de proporcionar maior familiaridade com o problema com vista a torna-lo explícito. Envolve, ainda, levantamento bibliográfico de forma a identificar e caracterizar práticas no escopo do problema pesquisado (Silva, Meneses, 2005).

2. Referencial Teórico

O principal objetivo da RCM é criar uma rotina de manutenção estratégica que preserve funções de sistemas e equipamentos de forma efetiva a custos aceitáveis. A menos que se trate de requerimentos normativos ou relacionados à segurança e meio ambiente, se justifica a adoção de procedimentos de manutenção com custos maiores que os custos associados às perdas operacionais e aos reparos. (Wilmeth, Usrey, 2000; Rao, 1996; Bloom, 2006).

A base de um programa de RCM é a identificação das funções e padrões de desempenho dos equipamentos, seguindo da definição das possíveis falhas, assim como a análise de suas causas e consequências e de ações que impeçam ou evitem a sua ocorrência (Fogliato, Ribeiro, 2009).

Normalmente a confiabilidade de um sistema cresce de maneira proporcional aos recursos financeiros investidos para este propósito. Este custo pode estar relacionado à utilização de matéria prima de melhor qualidade, acréscimo de algum tipo de redundância ou mesmo a introdução de políticas de manutenção mais adequadas. A necessidade por sistemas mais confiáveis está inserida em um contexto de interesses conflitantes que envolvem a minimização de gastos e maximização de lucros. Existe, portanto, um delicado ponto de equilíbrio a ser alcançado uma vez que a baixa confiabilidade pode acarretar falhas e prejuízos materiais (Menezes, 2008).

Objetiva-se apresentar genericamente os conceitos de variável aleatória e distribuição de probabilidade. Posteriormente estes conceitos serão utilizados para definir as funções confiabilidade a partir da variável aleatória o tempo entre falhas (TBF), e o tempo de reparo (TR).

Seja um espaço amostral uma variável aleatória T e uma função que associa um número real a cada resultado de um experimento aleatório, a função distribuição acumulada fda, de uma variável aleatória qualquer T, é definida como a probabilidade do evento (T ≤ t ), este conceito é expresso através da equação (1) e representa a probabilidade da variável aleatória T assumir valores no intervalo (-∞ , t)(O’Connor, 2002; Leon Garcia, 1994).

1

onde: t é a variável tempo;

Té a variável aleatória;

Fr (t) é a função distribuição acumulada da variável aleatória T.

A probabilidade que a variável aleatória T pertença ao intervalo limitado por t e t+ Δt quando Δt torna-se infinitamente pequeno (Δt0) é representada pela equação (2) (Lewis, 1987).

2

onde fr (t): é afunção densidade de probabilidade.

O termo fr (t) na equação (2) é a função densidade de probabilidade fdp da variável aleatória T. Este conceito é apresentado na equação (3), sendo definida como a derivada da função de distribuição acumulada ou cdf. Obviamente, a função distribuição acumulada F(t) pode ser apresentada pela equação (4).

3

4

Considerando-se a função densidade de probabilidade continua representada na figura1, a área sob a curva tem valor unitário. Pois descreve a probabilidade de todos os valores da variável T (O’ Connor, 2002; Peebles, 1993).

Este conceito pode ser descrito através da equação (5).

Descripción: D:\Manute\Documents\CAMELLO 2012\PUBLICAÇÕES 2012\JOEL, RODERLEI, ET\Figura 1.tif

Figura 1: Função densidade de probabilidade contínua

5

De maneira análoga, a probabilidade de um valor ocorrer entre t1 e t2 é dada pela equação (6).

6

A média ou valor esperado da variável aleatória T, modelada através da função densidade de probabilidade contínua fr (t), é dada por (7).

7

A função fr (t) será representada como f(t), Idem para as demais funções o sub-índice que representa a variável aleatória T será omitido.

3. Função Confiabilidade

A confiabilidade de um componente, equipamento ou sistema pode ser definida como a probabilidade de funcionamento deste item isento de falhas, durante um período de tempo pré-determinado, sob condições de operação estabelecidas. Define-se como falha o término da capacidade de um item desempenhar uma função requerida.

A teoria clássica de confiabilidade considera a condição de operação de um sistema como um experimento aleatório, no qual podem ser identificados qualitativamente dois estados: “falha” ou “operação normal”. Estes estados podem ser expressos numericamente utilizando-se o conceito de variável aleatória (Carvalho, 2008).

Seja um item qualquer em operação em um instante de tempo especificado (t = 0). Se este item for observado até que falhe, a duração do tempo até falhar T, pode ser considerada uma variável aleatória contínua com alguma função densidade de probabilidade. O valor de T não pode ser previsto a partir de um modelo determinístico. Isto implica que componentes idênticos sujeitos aos mesmos esforços falharão em instantes diferentes (Meyer, 1983).

Analisando-se a definição de confiabilidade percebe-se claramente sua dependência em relação ao tempo. Portanto, pode-se criar uma variável aleatória “tempo até a falha” T para quantificar a probabilidade de ocorrência de uma falha (8).

8

Onde: F(t) é a função distribuição acumulada de falhas.

Considerando que um item que não falhou para um tempo T≤ t possa falhar em um tempo T>t, pode-se definir o conceito de confiabilidade utilizando-se a equação (9) (Lewis, 1987).

9

Onde: T é a variável aleatório tempo até a falha (TTF);

R(t) é a função confiabilidade;

f(t) é a função densidade de probabilidade de falhas;

F(t) é a função distribuição acumulada de falhas.

10

Onde: f(t)é a função densidade de probabilidade de falhas.

A expressão (10) pode ser reescrita como em (11) que fornece a função densidade de probabilidade (pdf)do tempo até a falha em termos da função confiabilidade R(t).

11

O parâmetro MTTF (Mean Time to Failure) é definido como o valor esperado da variável aleatória T:

12

O MTTF pode ser escrito diretamente em termos da função confiabilidade substituindo-se a equação (11) na equação (12) e integrando-se por partes obtém-se a equação (13) (Lewis, 1987).

13

Considerando-se que então:

14

Cabe ressaltar que uma análise de confiabilidade deve ser realizada a partir do maior número possível de informações e que somente o valor do MTTF não é suficiente para traduzir o comportamento de falhas de um determinado item (Carvalho, 2008).

A velocidade de ocorrência de falhas pode ser expressa através do parâmetro taxa de falhas, sendo a análise de falhas um processo interativo cujo sucesso depende de se determinar relações implícitas entre causa e efeito. A taxa de falhas instantânea h(t) pode ser definida em termos da confiabilidade R(t) e da função densidade de probabilidade f(t), como expresso na equação (15).

15

As falhas podem ser classificadas em relação ao tempo de acordo com o mecanismo que as originaram. O comportamento da taxa de falhas pode ser representado graficamente através da curva conhecida como curva da banheira (figura 2) e que apresenta três fases distintas: falhas prematuras, vida útil e velhice. A região de falhas prematuras (ou mortalidade infantil) é caracterizada por taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida útil apresenta taxa de falha aproximadamente constante e a região de velhice é caracterizada por taxas de falha crescente (Lewis, 1987; Filho, 1997; Freitas, Colosimo, 1997).

Descripción: D:\Manute\Documents\CAMELLO 2012\PUBLICAÇÕES 2012\JOEL, RODERLEI, ET\Figura 2.tif

Figura 2: Curva da banheira
Fonte: Moubray (1999)

Devido à própria evolução dos equipamentos, verificou-se a existência de outros tipos de comportamento conforme ilustra a Figura 3 (Moubray, 1999).

Descripción: D:\Manute\Documents\CAMELLO 2012\PUBLICAÇÕES 2012\JOEL, RODERLEI, ET\Figura 3.tif

Figura 3: Padrões de falha
Fonte: Moubray (1999)

O padrão de falha A representado na Figura 3 é conhecido como curva da banheira, conforme apresentado na Figura 2. O padrão B apresenta uma taxa de falhas aproximadamente constante, ou com um aumento lento, seguido por um período de desgaste. O padrão C mostra uma taxa de falhas com crescimento lento sem apresentar desgaste ao final da vida útil. O padrão D apresenta baixa taxa de falhas no início da vida seguido por um patamar constante. O padrão de falha E é representativo para computadores e outro tipo de hardware formado essencialmente por componentes eletrônicos observa-se que este tipo de componente normalmente apresenta falhas aleatórias. O padrão F começa com uma alta taxa de falhas no período de falhas prematuras (mortalidade infantil) que tende a estabilizar-se rapidamente em torno de um valor aproximadamente constante (Moubray, 1999; Lewis, 1987; Carvalho, 2008).

4. Abordagem Nebulosas para Cálculo da Confiabilidade de Sistemas

Apresenta-se a seguir uma visão geral das alternativas para análise de falhas quando não existem dados, por meio das abordagens; convencionais e baseada em inteligência computacional. A abordagem convencional apresenta as opções de utilização de testes acelerados, modelagem não paramétrica, modelagem paramétrica com conhecimento a priori e casos particulares da estatística Bayesiana.

Os testes acelerados, normalmente, são utilizados nas fases iniciais de desenvolvimento de um produto e, portanto, teriam pouco ou nenhuma utilidade para auxiliar o processo de tomada de decisão em atividades de manutenção. Além disso, o projeto de um teste acelerado envolve uma grande complexidade devendo levar em consideração inúmeros fatores (Carvalho, 2008).

Figura 4: Alternativas para cálculo de confiabilidade quando não existem dados
Fonte: Carvalho (2008)

Quando não existem dados, o conhecimento de engenharia e o bom senso desempenham um papel fundamental no processo de tomada de decisão, neste caso, as decisões cabem exclusivamente aos especialistas humanos. As técnicas de inteligência computacional apresentam uma opção natural uma vez que valorizam a experiência humana.

O cálculo de confiabilidade baseado em técnicas de inteligência computacional pode abranger o uso de sistemas nebulosos, redes neurais, algoritmos genéticos ou técnicas híbridas. A abordagem nebulosa oferece uma metodologia formal para modelar o conhecimento humano, sendo esta sua principal vantagem.

O conceito de confiabilidade nebulosa foi introduzido e desenvolvido por vários autores, apresenta abordagem distinta considerando a combinação de hipóteses válidas para a entrada e saída do sistema a ser estudado (Cai et al. 1993).

As medidas realizadas podem estar no âmbito da probabilidade ou da possibilidade e os estados de saída podem ser binários ou nebulosos. A combinação desta hipótese gera a classificação do sistema em PROBIST (PRObability Assumption and BInary-STate); PROFUST (PRObability Assumption and FUzzy-State); POSBIST (POSsibility Assumption and FUzzy-state); e POSFUT (POSsibility Assumption and FUzzy-state).

Figura 5: Metodologias nebulosas para cálculo da confiabilidade de sistemas
Fonte: Carvalho, (2008)

A teoria PROBIST (PRObability Assumption and BInary-STate) equivale à teoria convencional de confiabilidade. É baseada em duas suposições fundamentais: A primeira delas estabelece que o comportamento de um item ou sistema em estudo pode ser completamente caracterizado em um contexto de medidas de probabilidade. A segunda suposição estabelece que o sistema comporta-se através de estados binários. Ou seja, só é possível a ocorrência dos estados sucesso (funcionamento normal) ou falha, como mostra a Figura 5 (Cai, 1996).

O uso do modelo probabilístico pressupõe a disponibilidade de uma grande quantidade de dados coletados. Os sistemas classificados como PROBIST satisfazem as hipóteses de probabilidade e estados binários, porém estão sujeitos a vários tipos de incertezas. Para muitos destes sistemas é difícil avaliar a probabilidade de falha a partir de experiências anteriores porque o ambiente sofre mudanças com o tempo. Esta característica dinâmica faz com que os dados disponíveis sejam insuficientes para a estimação estatística de probabilidades (Carvalho et al. 2006).

Nestes casos pode ser difícil determinar a probabilidade de uma maneira objetiva e pode ser necessária a introdução do julgamento humano. Percebe-se claramente a necessidade de uma técnica que permita a incorporação da subjetividade e da imprecisão. É neste contexto que a abordagem nebulosa surge como uma alternativa natural, (Tanaka et al. 1983; Carvalho, 2008).

A teoria de confiabilidade PROFUST (PRObability Assumption and FUzzy-STate) considera que o comportamento de um item ou sistema em estudo pode ser caracterizado em um contexto de medidas de probabilidades, exatamente como nos sistemas PROBIST. Uma segunda hipótese estabelece que a falha ou o sucesso do sistema é caracterizado através de estados nebulosos. Assim, o significado de uma falha não é definido de uma maneira precisa, mas de forma nebulosa (Cai, 1996; Cai et al. 1993).

Normalmente, o sistema típico nos estudos sobre confiabilidade PROFUST é formado por elementos independentes cuja falha individual diminui parcialmente o desempenho do sistema como um todo. Esta situação caracteriza um modo degradado de funcionamento situado entre os estados de falha e sucesso (Mayer, 1983).

Sistemas, como por exemplo, os eletrônicos, apresentam falhas de natureza aleatória e de difícil previsão (falhas abruptas), devido a estas características acredita-se que políticas de manutenção que envolva estudos de confiabilidade baseados em estados nebulosos (PROFUST) possam ser de grande valia.

Os sistemas POSBIST (POSsibility Assumption and BInary-STate) assumem que o comportamento de falhas é caracterizado como uma medida de possibilidade. A falha ou o sucesso do sistema é caracterizado através de estados binários. Na abordagem POSBIST é possível definir uma distribuição de possibilidade π(x) tal que esta distribuição seja igual à função de pertinência μA(x) conforme definido por (Cai et al. 1993; Zadeh, 1978).

A teoria de confiabilidade POSFUST (POSsibility Assumption and FUzzy-STate) considera que o comportamento de um item ou sistema em estudo pode ser caracterizado em um contexto de medidas de possibilidades, como nos sistemas POSBIST. A falha ou o sucesso do sistema é caracterizado através de estados nebulosos. Portanto, da mesma forma que nos sistemas PROFUST o significado preciso do que exatamente constitui uma falha não é definido (Cai, 1996).

A confiabilidade POSFUST de um sistema é interpretada como a possibilidade que uma falha não ocorra em um intervalo de tempo especificado, sob condições ambientais pré-estabelecidas. A ocorrência de uma falha neste contexto é um evento nebuloso e, portanto é necessário utilizar ferramentas matemáticas que sejam capazes de calcular a possibilidade de conjuntos nebulosos.

Existem duas grandes vertentes de aplicação de conjuntos nebulosos para análise de falhas. A primeira delas utiliza números nebulosos para modelagem da imprecisão dos dados de falha como, por exemplo, taxas de falha, tempos de reparo, etc. Uma segunda vertente consiste na utilização de um processo de inferência nebulosa baseado em regras.

Os principais métodos convencionais de análise de confiabilidade de sistemas utilizados atualmente como árvore de falhas (FTA) (Krasich, 2005), diagramas de blocos de confiabilidade (RBD) (Murphy, 2003) e análise de modos e efeitos de falhas (FMEA) (Bowles, 2003) podem ser interpretados sob a ótica da teoria dos conjuntos nebulosos, (Nachtmann, Chimka, 2003).

A análise de falhas convencional pode ser realizada utilizando-se a abordagem nebulosa, por meio de uma proposta e estrutura para cálculo de tempo médio de reparo e a disponibilidade. O tempo de reparo depende do tempo gasto efetivamente com a manutenção e também do tempo logístico, (Nelson, 1982; Mijailovic, 2003).

As matrizes de entradas dependem do processo modelado e serão definidas pelos especialistas consultados. Pode ser citada como exemplos de possíveis entradas a complexidade do modo de falha, a frequência de ocorrência de falha, dentre outros, (Pedrycz, Gomide, 1998).

Figura 6: Modelo nebuloso proposto para análise nebulosa de falhas

O tempo de reparo médio nebuloso é calculado a partir da soma da variável tempo efetivo de manutenção e tempo logístico conforme a equação (16).

16

O tempo efetivo de manutenção será calculado como função dos tempos equivalentes às várias atividades realizadas para eliminar a falha e restabelecer o funcionamento normal do processo ou equipamento como mostra a equação (17):

17

Onde tempo equivalente a cada atividade;

: número de atividades consideradas relevantes para o cálculo do tempo efetivo de manutenção. O cálculo do tempo logístico é realizado de maneira análoga ao apresentado anteriormente para o cálculo do tempo efetivo de manutenção conforme a equação (18)

18

Onde:tempo equivalente a cada atividade,

kl: número de atividades consideradas relevantes para o cálculo do tempo logístico.

Os tempos e equivalentes a cada uma das variáveis que compõe o cálculo de e respectivamente são calculados através de um processo de inferência nebulosa (Fuzzy Inference System - FIS) baseado em um conjunto de regras do tipo se então. As variáveis que compõem as matrizes de entrada (e), bem como a base de regras a ser utilizada, serão obtidas através de entrevistas com os especialistas.

A disponibilidade é calculada através de um processo de inferência nebulosa tendo como matriz de entrada . Esta matriz é composta por vetores contendo como componentes o tempo de reparo médio nebuloso e a frequência de ocorrência de falhas  em um período pré-determinado.

O tempo entre falhas médio nebuloso é calculado de forma indireta. Considerando a relação entre o tempo de reparo nebuloso e o tempo total de observação.

5. Considerações Finais

O principal objetivo deste trabalho foi o de contribuir para análise de disponibilidade de sistemas reparáveis utilizando uma abordagem convencional e uma abordagem nebulosa, de modo a suprir deficiência no planejamento na manutenção de processos e sistemas em busca de maior confiabilidade.

A análise convencional de confiabilidade é baseada na abordagem probabilística e pressupõe a existência de uma grande quantidade de dados. Existe forte correlação entre a precisão de uma estimativa probabilística e o tamanho da amostra do sistema onde os dados foram obtidos.  

O principio da intratabilidade estabelece que, à medida que a complexidade de um sistema aumenta, a capacidade de se realizar inferências precisas e significativas sobre seu comportamento diminui até que seja atingido um limite a partir do qual a relevância e precisão sejam atributos mutuamente exclusivos (Zadeh, 1973; Carvalho, 2008).

Devido a todos os fatores expostos considera-se que o tempo até a falha e o tempo de reparo de um sistema possa ser interpretado de maneira ampla como função de fatores inerentes, ambientais e operacionais. Assim, é razoável supor que a abordagem probabilística possa ser insuficiente para modelar a confiabilidade e mantenabilidade de sistemas complexos. Onde exista falta de dados devido à imprecisão ou incertezas de naturezas diversas.

Este fato motivou a criação de técnicas alternativas baseadas em inteligência computacional para a análise de falhas em geral. A aplicação de confiabilidade nebulosa aplicadas, neste trabalho, foi útil para modelar o conhecimento armazenado em forma tácita pelos especialistas auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção (Cardoso, 2008).

A abordagem nebulosa pode ser utilizada para auxiliar no processo de tomada de decisão em ambiente totalmente desprovido de informações quantitativas confiáveis. Possibilita, ainda, o cálculo do tempo de reparo de forma detalhada, calcula separadamente o tempo efetivo de manutenção e o tempo gasto com questões logísticas.

A estratificação do tempo de reparo permite quantificar a relevância de cada um dos tempos citados para composição do tempo de reparo. Uma vez identificado o componente mais crítico é possível direcionar o esforço de manutenção no sentido de otimizar recursos.

O desenvolvimento do modelo nebuloso é dependente da experiência de especialistas no processo a ser modelado. Uma forma de torna-lo mais robusto em relação a interferências externas é introduzir capacidade de adaptação hibridizando-o com as redes neurais, como redes adaptativas inteligentes.

Finalmente, conclui-se que os resultados mostram que o sistema convencional e a abordagem nebulosa são complementares, podendo ser aplicados simultaneamente para obter resultados mais precisos nos processos de manutenção. Considera-se que a eficácia da metodologia utilizada foi plenamente comprovada justificando investimentos futuros para modelagem de outros processos produtivos de complexidade similar ou superior.

6. Referências Bibliográficas

BOWLES, J. B.; PELÁEZ, C. E. (1995); Application of Fuzzy Logic to Reliability Engineering. IEEE Proceedings. 83 (3), 435- 449.

BLOOM, N. B. (2006); Reliability Centered Maintenance: implementation made simple; New York, McGraw-Hill, 291 p.

CAI, K. Y. (1996); System failure engineering and fuzzy methodology. An introductory overview. Elsevier Science Publishers. Fuzzy Sets and Systems, 83, 113-133.

CAI, K.Y.; WEN, C. Y.; ZHANG, M. L. (1993) Fuzzy states as a basis for a theory of fuzzy reliability, Microelectronics Reliability 33, 2253–2263.

CARVALHO, A. L. (2008); Análise de Disponibilidade Utilizando Abordagem Nebulosa, Tese de Doutorado em Engenharia Elétrica da Escola de Engenharia da Universidade Federal de Minas Gerais, p.7-12.

CARVALHO, A. L.; MENEZES, B. R. M.; CAMINHAS, W. M. (2006); Comparação de Metodologias para Cálculo de Confiabilidade em Sistemas Reparáveis. In: Simpósio Internacional de Confiabilidade, IV, 2006, Salvador. Anais… São Paulo: Reliasoft Brasil.

FILHO, V. B. (1977); Confiabilidade Básica e Prática; 1a ed. São Paulo, Editora Edgar Blucher, 108p.

FOGLIATO, F. S., RIBEIRO, J. L. D. (2009); Confiabilidade e Manutenção Industrial. São Paulo, Campus- Elsevier, 288 p.

FREITAS, M. A. e COLOSIMO, E. A. (1997) Confiabilidade: Análise do tempo de falha e Testes de Vida Acelerados. Belo Horizonte: Fundação Cristiano Ottoni, 308p (Série Ferramentas da Qualidade, v. 12)

KRASICH, M. (2005); Fault tree Analysis for Failure Modes Identification and Product Reliability Improvement. In: Annual Reliability and Maintainability Symposium, 51o, Alexandria. Conference Tutorials, Alexandria: IEEE 2005.

LEON GARCIA, A. (1994); Probability and Random Processes for Electrical Engineering; Addison Wesley, 596 p.

LEVITIN, G. (Ed); (2006) Computational Intelligence in Reliability Engineering. 1a. ed.; Israel, Springer, 413p.

LEWIS, E. (1987); Introduction to Reliability Engineering; 4a ed. Canada, John Wiley &Sons, 400 p.

MENEZES, B. R. (2008); Análise de Disponibilidade Utilizando Abordagem Nebulosa. Tese de doutorado da Universidade Federal de Minas Gerais.

MEYER, P. L. (1983); Probabilidade. Aplicações à Estatística. 2a ed. Rio de Janeiro, Livros Técnicos e Científicos Editora (LTC), 426 p.

MURPHY KE, CARTE CM. (2003); Reliability Block Diagram Construction Techniques: Secrets to Real-life Diagramming Woes. In: Annual Reliability and Maintainability Symposium, 49o, Tampa. Conference Tutorials …, Tampa: IEEE, 2003.

NACHTMANN, H.; CHIMKA, J. R. (2010); Fuzzy Reliability in Conceptual Design. In: NIU, G., YANG, B., PECHT, M. Development of an optimized condition- Based Maintenance System by data fusion and reliability-Centred maintenance. Reliability Engineering and System Safety. 95 (7), 788-796.

NAKAJIMA, S. (1989); La Maintenance Productive Totale; Paris, Afnor; 152 p.

O’ CONNOR, P. D. T. (2002); Practical Reliability Engineering; 4a ed. England, John Wiley & Sons, 513 p.

PEDRYCZ, W.; GOMIDE, F. (1998); An Introduction to Fuzzy Sets. Analysis and Design; England; Massachusetts Institute of Technology; 465 p.

PEEBLES, P. J. E. (1993); Principles of Physical Cosmology; Princeton University Press, 736 p.

RAO, P. N.; SRIKRISHNA, S.; VADAVA, G. S. (1996); Reliability-Centred Maintenance applied to power plant auxiliaries. Journal of Quality in Maintenance Engineering, 2 (1), 1-14.

RAUSAND, M. (1998); Reliability centered maintenance. Department of Production and Quality Engineering. Norwegian University of Science and Technology, N-7034 Trondheim, Norway. Elsevier Science Limited.

SANTOS, W. B.; COLOSSIMO, E. A.; MOTA, S. B. (2007); Tempo ótimo entre manutenção preventiva para sistemas sujeitos a mais de um tipo de evento aleatório. Revista Gestão da Produção, 14 (1), 193-202.

SOUZA, S. S.; LIMA C. R. C. (2003); Manutenção centrada em confiabilidade como ferramenta estratégica. XXIII Encontro Nac. de Engenharia de Produção - Ouro Preto, MG, Brasil, 21 a 24 de out de 2003.

TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. (1983); Fault Tree Analysis by Fuzzy Probability. IEEE Transactions on Reliability, 32 (5), 453-457.

WILMETH, G. W., USREY, M. W. (2000); Reliability centred maintenance: A case study, Engineering Management Journal, 12 (4), 25-3.

WIREMAN, T. (1991); Total Productive Maintenance: an American Approach. New York, Industrial Press, 192 p.

ZADEH, L. (1978); Fuzzy Sets as a Basis for a theory of Possibility. Fuzzy Sets and Systems, 1, 3-28.


Universidade Metodista de Piracicaba – UNIMEP Programa de Pós Graduação em Engenharia de Produção jabatista@unimep.br
2 Universidade Metodista de Piracicaba – UNIMEP Programa de Pós Graduação em Engenharia de Produção crclima@unimep.br


Vol. 34 (4) 2013
[Índice]

[En caso de encontrar algún error en este website favor enviar email a webmaster]