sexta-feira, 12 de dezembro de 2008

ISO 9000

A expressão ISO 9000 designa um grupo de normas técnicas que estabelecem um modelo de gestão da qualidade para organizações em geral, qualquer que seja o seu tipo ou dimensão.
A sigla "ISO" refere-se à International Organization for Standardization, organização não-governamental fundada em 1947, em Genebra, e hoje presente em cerca de 157 países. A sua função é a de promover a normatização de produtos e serviços, para que a qualidade dos mesmos seja permanentemente melhorada.
Esta família de normas estabelece requisitos que auxiliam a melhoria dos processos internos, a maior capacitação dos colaboradores, o monitoramento do ambiente de trabalho, a verificação da satisfação dos clientes, colaboradores e fornecedores, num processo contínuo de melhoria do sistema de gestão da qualidade. Aplicam-se a campos tão distintos quanto materiais, produtos, processos e serviços.
A adoção das normas ISO é vantajosa para as organizações uma vez que lhes confere maior organização, produtividade e credibilidade - elementos facilmente identificáveis pelos clientes -, aumentando a sua competitividade nos mercados nacional e internacional. Os processos organizacionais necessitam ser verificados através de auditorias externas independentes.














História
Metralhadora Maxim utilizada pela Royal Navy. Adotada pelo Exército Britânico em 1908 foi utilizada pela primeira vez em combate na Guerra de Matabele (1893-1894). Em um único combate, 50 soldados britânicos armados com quatro destas metralhadoras dizimaram 5.000 inimigos.
Antecedentes
Desde os seus primórdios, a industrialização levantou questões relativas à padronização e à qualidade de processos e produtos. No início do século XX, destacaram-se os estudos de Frederick Taylor visando racionalizar as etapas de produção, aproveitados com sucesso por Henry Ford, que implantou a linha de montagem.
A padronização internacional começou pela área eletrotécnica, com a constituição, em 1906, da International Electrotechnical Commission (IEC).
O seu exemplo foi seguido em 1926, com o estabelecimento da International Federation of the National Standardizing Associations (ISA), com ênfase na engenharia mecânica. As atividades da ISA cessaram em 1942, durante a Segunda Guerra Mundial.
Nesta época, as empresas britânicas de alta tecnologia, nomeadamente as de produção de munições, registravam inúmeros problemas com a qualidade de seus produtos, o que ocasionava sérios acidentes com perda de vidas e de património. O governo passou então a solicitar aos seus fornecedores, procedimentos de fabricação conforme normas registradas por escrito, visando garantir que esses procedimentos estavam sendo seguidos. Esta norma tinha a designação "BS 5750", e ficou conhecida como norma de gestão, uma vez que não apenas especificava como se produzir, mas também como gerenciar o processo de produção.
Com o final do conflito, em 1946 representantes de 25 países reuniram-se em Londres e decidiram criar uma nova organização internacional, com o objetivo de "facilitar a coordenação internacional e unificação dos padrões industriais". A nova organização, a Organização Internacional para Padronização, iniciou oficialmente as suas operações em 23 de fevereiro de 1947 com sede em Genebra, na Suíça.
Com a acentuação da globalização na década de 1980, aumentou a necessidade de normas internacionais, nomeadamente a partir da criação da União Europeia.
Conforme Seddon, "Em 1987, o governo britânico persuadiu a Organização Internacional para Padronização (ISO) a adotar a BS 5750 como uma norma padrão internacional. A BS 5750 tornou-se a ISO 9000."[1]
ISO 9000:1987
Esta primeira norma tinha estrutura idêntica à norma britânica BS 5750, mas era também influenciada por outras normas existentes nos Estados Unidos da América e por normas de defesa militar (as "Military Specifications" - "MIL SPECS"). Subdividia-se em três modelos de gerenciamento da qualidade, conforme a natureza das atividades da organização:
ISO 9001:1987 Modelo de garantia da qualidade para projeto, desenvolvimento, produção, montagem e prestadores de serviço - aplicava-se a organizações que cujas atividades eram voltadas à criação de novos produtos.
ISO 9002:1987 Modelo de garantia da qualidade para produção, montagem e prestação de serviço - compreendia essencialmente o mesmo material da anterior, mas sem abranger a criação de novos produtos.
ISO 9003:1987 Modelo de garantia da qualidade para inspeção final e teste - abrangia apenas a inspeção final do produto e não se preocupava como o produto era feito.
ISO 9000:1994
Esta norma continha os termos e definições relativos à norma ISO 9001:1994. Não é qualquer norma certificadora, apenas explicativa dos termos e definições da garantia da qualidade.
ISO 9001:1994
Esta norma tinha a garantia da qualidade da qualidade como base da certificação. A norma tinha os seguintes 20 requisitos: 4.1 Responsabilidade da Direcção (Trata do papel da alta direcção na implementação do sistema da Qualidade); 4.2 Sistema da qualidade (Descreve a documentação que compõe o sistema da qualidade); 4.3 Análise do contrato (Trata da relação comercial entre a empresa e os seus clientes); 4.4 Controlo da concepção e projecto (Trata da concepção e desenvolvimento de novos produtos para atender aos clientes); 4.5 Controlo dos documentos e dados (Trata da forma de controlar os documentos do sistema da qualidade); 4.6 Compras (Trata da qualificação dos fornecedores de materiais / serviços e do processo de compras); 4.7 Produto fornecido pelo Cliente (Trata da metodologia para assegurar a conformidade dos produtos fornecidos pelo Cliente para incorporar ao produto final); 4.8 Rastreabilidade (Trata da história desde o inicio do fabrico do produto ou da prestação do serviço); 4.9 Controlo do processo (Trata do processo de produção dos produtos da empresa); 4.10 Inspecção e ensaios (Trata do controlo da qualidade que é realizado no produto ou serviço); 4.11 Controlo de equipamentos de inspecção, medição e ensaio (Trata do controle necessário para a calibração / verificação dos instrumentos que inspeccionam, meçam ou ensaiem a conformidade do produto); 4.12 Situação da inspecção e ensaios (Trata da identificação da situação da inspecção do produto ou serviço em todas as etapas da sua produção); 4.13 Controle do produto não conforme (Trata da metodologia de controlo para os produtos fora de especificação); 4.14 Acção correctiva e preventiva (Trata das acções necessárias para as não conformidades identificadas de forma a evitar que aconteça e a sua repetição); 4.15 Manuseamento, armazenamento, embalagem, preservação e expedição (Trata dos cuidados com o produto acabado até a sua expedição para o cliente): 4.16 Controlo dos registos da qualidade (Trata da metodologia do controlo dos registos da qualidade para facilitar a sua identificação,recuperação); 4.17 Auditorias internas da qualidade (Trata da programação das auditorias internas da qualidade); 4.18 Formação (Trata do levantamento de necessidades de formação e da programação das respectivas formações); 4.19 Serviços após - venda (Trata dos serviços prestados após venda); 4.20 Técnicas estatísticas (Trata da utilização de técnicas estatísticas na empresa);
Esta versão por exigir muito "papel" em vez da implementação das práticas como exigido pela ISO 9001:2008.
ISO 9001:2000
Para solucionar as dificuldades da anterior, esta norma combinava as 9001, 9002 e 9003 em uma única, doravante denominada simplesmente como 9001:2000.
Os processos de projeto e desenvolvimento eram requeridos apenas para empresas que, de fato, investiam na criação de novos produtos, inovando ao estabelecer o conceito de "controle de processo" antes e durante o processo[2]. Esta nova versão exigia ainda o envolvimento da gestão para promover a integração da qualidade internamente na própria organização, definindo um responsável pelas ações da qualidade. Adicionalmente, pretendia-se melhorar os processos por meio de aferições de desempenho e pela implementação de indicadores para medir a efetividade das ações e atividades desenvolvidas.
Mas a principal mudança na norma foi a introdução da visão de foco no cliente. Anteriormente, o cliente era visto como externo à organização, e doravante passava a ser percebido como integrante do sistema da organização. A qualidade, desse modo, passava a ser considerada como uma variável de múltiplas dimensões, definida pelo cliente, por suas necessidades e desejos. Além disso, não eram considerados como clientes apenas os consumidores finais do produto, mas todos os envolvidos na cadeia de produção.
ISO 9000:2005
Foi a única norma lançada nesse ano, descrevendo os fundamentos de sistemas de gestão da qualidade que, no Brasil, constituem o objeto da família ABNT NBR ISO 9000, e definindo os termos a ela relacionados. É aplicável a organizações que buscam vantagens através da implementação de um sistema de gestão da qualidade; a organizações que buscam a confiança nos seus fornecedores de que os requisitos de seus produtos serão atendidos; a usuários dos produtos; aqueles que têm interesse no entendimento mútuo da terminologia utilizada na gestão da qualidade (por exemplo: fornecedores, clientes, órgãos reguladores); aqueles, internos ou externos à organização, que avaliam o sistema de gestão da qualidade ou o auditam, para verificarem a conformidade com os requisitos da ABNT NBR ISO 9001 (por exemplo: auditores, órgãos regulamentadores e organismos de certificação); aqueles, internos ou externos à organização, que prestam assessoria ou treinamento sobre o sistema de gestão da qualidade adequado à organização; e a grupos de pessoas que elaboram normas correlatas.
ISO 9001:2008
A versão atual da norma está em "DIS" ("Draft International Standard"), ou seja, constitui apenas um rascunho, embora possa ser considerada como a sua versão final, uma vez que mudanças significativas foram identificadas em apenas alguns de seus pontos. Está programado para 2008 o início das votações para a sua aprovação.
Esta nova versão foi elaborada para apresentar maior compatibilidade com a família da ISO 14000, e as alterações realizadas trouxeram maior compatibilidade para as suas traduções e consequentemente um melhor entendimento e interpretação de seu texto.
Critérios para a normatização
As normas foram elaboradas através de um consenso internacional acerca das práticas que uma empresa deve tomar a fim de atender plenamente os requisitos de qualidade total. A ISO 9000 não fixa metas a serem atingidas pelas organizações a serem certificadas; as próprias organizações é quem estabelecem essas metas.
Uma organização deve seguir alguns passos e atender a alguns requisitos para serem certificadas. Dentre esses podem-se citar:
Padronização de todos os processos-chave da organização, processos que afetam o produto e conseqüentemente o cliente;
Monitoramento e medição dos processos de fabricação para assegurar a qualidade do produto/serviço, através de indicadores de performance e desvios;
Implementar e manter os registros adequados e necessários para garantir a rastreabilidade do processo;
Inspeção de qualidade e meios apropriados de ações corretivas quando necessário; e
Revisão sistemática dos processos e do sistema da qualidade para garantir sua eficácia.
Um "produto", no vocabulário da ISO, pode significar um objeto físico, ou serviço, ou software.
A International Organization for Standardization ISO em 2004 publicou um artigo que dizia: "Atualmente as organizações de serviço representam um número grande de empresas certificadas pela ISO 9001:2000, aproximadamente 31% do total"[3]
Os elementos da ISO 9000
A cópia das normas é vedada. A "ISO 9001:2000 Sistema de gestão da qualidade novo — Requisitos" é um documento de aproximadamente 30 páginas, disponível nos órgãos representantes em cada país, descrito em itens como abaixo:
Página 1: Prefácio
Página 1 a 3: Introdução
Página 3: Objetivo e campo de aplicação
Página 3: Referência normativa
Página 3: Termos e definições
Página 4 a 12: Requisitos
Seção 4: Sistema de Gestão da Qualidade
Seção 5: Responsabilidade da Direção
Seção 6: Gestão de Recursos
Seção 7: Realização do Produto
Seção 8: Medição, análise e melhoria
Páginas 13 a 20: Tabelas de correspondência entre a ISO 9001 e outras normas
Páginas 21: Bibliografia
Os seis documentos obrigatórios da norma são:
Controle de Documentos (4.2.3)
Controle de Registros (4.2.4)
Auditorias Internas (8.2.2)
Controle de Produto/ Serviço não-conformes (8.3)
Ação corretiva (8.5.2)
Ação preventiva (8.5.3)
Em acréscimo aos requisitos da ISO 9001:2000 é necessário definir e implementar uma "Política da Qualidade" e um "Manual da Qualidade" embora isso não queira dizer que eles sejam os únicos documentos necessários. Cada organização deve avalizar o seu processo por inteiro.
Terminologia
Ação corretiva - ação para eliminar a causa de uma não-conformidade identificada ou de outra situação indesejável
Ação preventiva - ação para eliminar a causa de uma potencial não-conformidade
Cliente - organização ou pessoa que recebe um produto
Conformidade - satisfação com um requisito
Eficácia - medida em que as atividades planejadas foram realizadas e obtidos os resultados planejados
Eficiência - relação entre os resultados obtidos e os recursos utilizados
Fornecedor - organização ou pessoa que fornece um produto
Política da Qualidade - conjunto de intenções e de orientações de uma organização, relacionadas com a qualidade, como formalmente expressas pela gestão de topo
Procedimento - modo especificado de realizar uma atividade ou um processo
Processo - conjunto de atividades interrelacionadas e interatuantes que transformam entradas em saídas
Produto - resultado de um processo
Qualidade - grau de satisfação de requisitos dado por um conjunto de características intrínsecas
Requisito - necessidade ou expectativa expressa, geralmente implícita ou obrigatória
Satisfação de clientes - percepção dos clientes quanto ao grau de satisfação dos seus requisitos
Sistema de Gestão da Qualidade - sistema de gestão para dirigir e controlar uma organização no que respeita à qualidade
Resumo em linguagem informal
Os elementos descritos abaixo são alguns dos aspectos a serem abordados pela organização no momento da implementação da ISO 9001:2000, lembrando sempre que alguns desses requisitos variam de acordo com o tamanho e ramo de atividade da empresa.
Deve ser feita a análise de todo processo e garantir a padronização, monitoramento e documentação de todo o processo que tem influência no produto.
Responsabilidade da direção: requer que a política de qualidade seja definida, documentada, comunicada, implementada e mantida. Além disto, requer que se designe um representante da administração para coordenar e controlar o sistema da qualidade.
Sistema da qualidade: deve ser documentado na forma de um manual e implementado também.
Análise crítica de contratos: os requisitos contratuais devem estar completos e bem definidos. A empresa deve assegurar que tenha todos os recursos necessários para atender às exigências contratuais.
Controle de projeto: todas as atividades referentes à projetos (planejamento, métodos para revisão, mudanças, verificações, etc.) devem ser documentadas.
Controle de documentos: requer procedimentos para controlar a geração, distribuição, mudança e revisão em todos os documentos codificados na empresa.
Aquisição: deve-se garantir que as matérias-primas atendam às exigências especificadas. Deve haver procedimentos para a avaliação de fornecedores.
Produtos fornecidos pelo cliente: deve-se assegurar que estes produtos sejam adequados ao uso.
Identificação e rastreabilidade do produto: requer a identificação do produto por item, série ou lote durante todos os estágios da produção, entrega e instalação.
Controle de processos: requer que todas as fases de processamento de um produto sejam controladas (por procedimentos, normas, etc.) e documentadas.
Inspeção e ensaios: requer que a matéria-prima seja inspecionada (por procedimentos documentados) antes de sua utilização.
Equipamentos de inspeção, medição e ensaios: requer procedimentos para a calibração/aferição, o controle e a manutenção destes equipamentos.
Situação da inspeção e ensaios: deve haver, no produto, algum indicador que demonstre por quais inspeções e ensaios ele passou e se foi aprovado ou não.
Controle de produto não-conformes: requer procedimentos para assegurar que o produto não conforme aos requisitos especificados é impedido de ser utilizado inadvertidamente.
Ação corretiva: exige a investigação e análise das causas de produtos não-conformes e adoção de medidas para prevenir a reincidência destas não-conformidades.
Manuseio, armazenamento, embalagem e expedição: requer a existência de procedimentos para o manuseio, o armazenamento, a embalagem e a expedição dos produtos.
Registros da qualidade: devem ser mantidos registros da qualidade ao longo de todo o processo de produção. Estes devem ser devidamente arquivados e protegidos contra danos e extravios.
Auditorias internas da qualidade: deve-se implantar um sistema de avaliação do programa da qualidade.
Treinamento: devem ser estabelecidos programas de treinamento para manter, atualizar e ampliar os conhecimentos e as habilidades dos funcionários.
Assistência técnica: requer procedimentos para garantir a assistência à clientes.
Técnicas estatísticas: devem ser utilizadas técnicas estatísticas adequadas para verificar a aceitabilidade da capacidade do processo e as características do produto.

No Brasil





A família de normas NBR ISO 9000:1994 (9001, 9002 e 9003) foi cancelada e substituída pela série de normas ABNT NBR ISO 9000:2000, que é composta de três normas:
ABNT NBR ISO 9000:2000: Descreve os fundamentos de sistemas de gestão da qualidade e estabelece a terminologia para estes sistemas.
ABNT NBR ISO 9001:2000: Especifica requisitos para um Sistema de Gestão da Qualidade, onde uma organização precisa demonstrar sua capacidade para fornecer produtos que atendam aos requisitos do cliente e aos requisitos regulamentares aplicáveis, e objetiva aumentar a satisfação do cliente.
ABNT NBR ISO 9004:2000: Fornece diretrizes que consideram tanto a eficácia como a eficiência do sistema de gestão da qualidade. O objetivo desta norma é melhorar o desempenho da organização e a satisfação dos clientes e das outras partes interessadas.
Não existe certificação para as normas ABNT NBR ISO 9000:2000 e ABNT NBR ISO 9004:2000.
PBQP-H
O Programa Brasileiro de Qualidade e Produtividade - Habitação foi criado em 1991 com a finalidade de difundir os novos conceitos de qualidade, gestão e organização da produção de habitações, indispensável à modernização e competitividade das organizações brasileiras de construção civil.
O programa foi reformulado a partir de 1996, para ganhar mais agilidade e abrangência setorial. Desde então vem procurando descentralizar as suas ações e ampliar o número de parcerias, sobretudo com o setor privado. Para fortalecer essa nova diretriz no âmbito do setor público, e envolver também os Ministérios setoriais nessa cruzada, o Governo brasileiro delegou a Presidência do Programa ao Ministério das Cidades.









CobiT - Control Objectives for Information and related Technology

CobiT, do inglês, Control Objectives for Information and related Technology, é um guia, formulado como framework, dirigido para a gestão de tecnologia de informação (TI).Recomendado pelo ISACA (Information Systems Audit and Control Association), possui uma serie de recursos que podem servir como um modelo de referência para gestão da TI, incluindo um sumário executivo, um "framework", controle de objetivos, mapas de auditoria, ferramentas para a sua implementação e principalmente, um guia com técnicas de gerenciamento. Especialistas em gestão e institutos independentes recomendam o uso do CobiT como meio para otimizar os investimentos de TI, melhorando o retorno sobre o investimento (ROI) percebido, fornecendo métricas para avaliação dos resultados (KPIs, KGIs e CSFs).
O CobiT independe das plataformas de TI adotadas nas empresas, tal como independe do tipo de negócio e do valor e participação que a tecnologia da informação tem na cadeia produtiva da empresa.
Estrutura do COBIT
COBIT cobre os quatro domínios, os quais possuem 34 processos (2 objetivos de controle para cada processo):
Planejar e Organizar
Adquirir e Implementar
Entregar e Dar Suporte
Monitorar e Avaliar
Planejar e Organizar
O domínio de Planejamento e Organização cobre o uso de informação e tecnologia e como isso pode ser usado para que a empresa atinja seus objetivos e metas. Ele também salienta que a forma organizacional e a infra-estrutura da TI deve ser considerada para que se atinja resultados ótimos e para que se gere benefícios do seu uso. A tabela seguinte lista os objetivos de controle de alto nível para o domínio do Planejamento e Organização.
OBJETIVOS DE CONTROLE DE ALTO NÍVEL
Planejar e Organizar
PO1
Definir um Plano Estratégico de TI e Orientações
PO2
Definir a Arquitetura de Informação
PO3
Determinar o Gerenciamento Tecnológico
PO4
Definir os Processos de TI, Organização e Relacionamentos
PO5
Gerenciar o Investimento em TI
PO6
Comunicar os Objetivos de Gerenciamento e Orientar
PO7
Gerenciar os Recusos Humanos de TI
PO8
Gerenciar a Qualidade
PO9
Estimar e Gerenciar os Riscos de TI
PO10
Gerenciar Projetos
Adquirir e Implementar
O domínio de Adquirir e Implementar cobre os requisitos de TI, aquisição de tecnologia, e implementação dele dentro dos processos de negócios da companhia. Esse domínio também foca o desenvolvimento do plano de manutenção que a companhia adota para prolongar a vida do sistema de TI e seus componentes. A seguinte tabela lista os objetivos de alto nível de Aquisição e Implementação.
OBJETIVOS DE CONTROLE DE ALTO NÍVEL
Adquirir e Implementar
AI1
Identificar Soluções Automatizadas
AI2
Adquirir e Manter Software de Aplicação
AI3
Adquirir e Manter Infraestrutura de Tecnologia
AI4
Habilitar Operação e Uso
AI5
Obter Recursos de TI
AI6
Gerenciar Mudanças
AI7
Instalar e Credenciar Soluções e Mudanças
Entregar e Dar Suporte
O domínio de Entregar e Dar Suporte foca em aspectos de entrega de tecnologia da informação. Cobre a execução de aplicações dentro do sistema de TI e seus resultados, assim como o suporte dos processos que habilitam a execução de forma eficiente e efetiva. Esses processos de suporte também incluem questões de segurança e treinamento. A seguir a tabela com os objetivos de controle de alto nível desse domínio.
OBJETIVOS DE CONTROLE DE ALTO NÍVEL
Entregar e Dar Suporte
DS1
Definir e Gerenciar Níveis de Serviço
DS2
Gerenciar Serviços de Terceiros
DS3
Gerenciar Performance e Capacidade
DS4
Assegurar Serviço Contínuo
DS5
Assegurar Segurança de Sistema
DS6
Identificar e Alocar Recursos
DS7
Treinar Usuários
DS8
Gerenciar Serviços de Escritório e Incidentes
DS9
Gerenciar a Configuração
DS10
Gerenciar Problemas
DS11
Gerenciar Dados
DS12
Gerenciar o Ambiente Físico
DS13
Gerenciar Operações
Monitorar e Avaliar
O domínio de Monitorar e Avaliar lida com a estimativa estratégica das necessidades da companhia e avalia se o atual sistema de TI atinge os objetivos para o qual ele foi especificado e controla os requisitos para atender objetivos regulatórios. Ele também cobre as questões de estimativa independentemente da efetividade do sistema de TI e sua capacidade de atingir os objetivos de negócio, controlando os processos internos da companhia através de auditores internos e externos.
OBJETIVOS DE CONTROLE DE ALTO NÍVEL
Monitorar e Avaliar
M1
Monitorar os processos
M2
Assegurar avaliação dos controles internos
M3
Obter avaliação independente
M4
Prover auditoria independente
Referências
COBIT Wiki Wiki dedicada ao CobiT
ISACA- Fundação que detem a custódia do CobiT
COBIT User Forum Um dos principais grupos de usuário de CobiT
Uma comparação entre os diversos controles: COBIT®, SAC, COSO and SAS 55/78
Duas visões de controles: COBIT and the ITCG

ITIL - Information Technology Infrastructure Library

Information Technology Infrastructure Library (ITIL) é uma biblioteca de boas práticas (do inglês best practices) nos serviços de tecnologia da informação (TI), desenvolvida no final dos anos 80 pela CCTA (Central Computer and Telecommunications Agency) e atualmente sob custódia da OGC (Office for Government Commerce) da Inglaterra. A ITIL busca promover a gestão com foco no cliente e na qualidade dos serviços de tecnologia da informação (TI). A ITIL endereça estruturas de processos para a gestão de uma organização de TI apresentando um conjunto abrangente de processos e procedimentos gerenciais, organizados em disciplinas, com os quais uma organização pode fazer sua gestão tática e operacional em vista de alcançar o alinhamento estratégico com os negócios.
Histórico
A versão inicial da ITIL consistia em uma biblioteca de 31 volumes, cobrindo todos os aspectos do o Gerenciamento de Serviços de TI (GSTI). Em meados de 1990, a ITIL foi reconhecida como um "padrão de facto" (expressão de origem latina que significa "na prática"), no Gerenciamento de Serviços de TI (GSTI) ou IT Service Management (ITSM). Posteriormente a versão inicial foi revisada e substituída pela ITIL v2 (versão 2), que consistia em 7 volumes. A ITIL v2, objeto deste artigo, se tornou a base padrão para a norma BS 15000, que se tornou um anexo da norma ISO 20000. Em 2007, a ITIL v2 foi substituída pela ITIL v3.
ITIL e o itSMF
O itSMF é o único fórum destinado a profissionais especializados em ITIL totalmente independente e reconhecido mundialmente.
Estabelecido no Brasil em setembro de 2003, o fórum nacional itSMF Brasil[3] tem como principal meta consolidar o conhecimento dessas melhores práticas, promover a integração de profissionais da área de TI em torno desse tema e auxiliar na criação e revisão de processos voltados à Gerência de Serviços de TI.
Quando se fala na melhoria da maturidade dos serviços prestados, o mais adequado é implementar na empresa os processos preconizados pela ITIL (Infrastructure Technology Information Library), principalmente os processos das áreas de Service Support e Service Delivery, que tratam especificamente do gerenciamento dos serviços de TI, observando o alinhamento com as perspectivas de negócio e adotando a infra-estrutura adequada para tal.
A ITIL traz algumas mudanças de paradigma, tais como: faz com que o negócio foque no valor e não no custo; nos faz pensar em toda a cadeia que envolve a prestação de serviços (end-to-end service) e não uma visão fragmentada; e internamente transfere o olhar para processos e pessoas e não apenas na tecnologia.
Service Support
Os processos desta área e seus objetivos são:
Incident Management (Gerenciamento de incidentes) – reduzir o tempo de indisponibilidade (downtime) dos serviços;
Problem Management (Gerenciamento de problemas) – minimizar o impacto no negócio, dos incidentes e problemas causados pelos erros na infra-estrutura de TI e prevenir incidentes recorrentes desses mesmos erros;
Configuration Management (Gerenciamento de configuração) – identificar e controlar os ativos de TI e itens de configuração (CIs) existentes na organização, estabelecendo o relacionamento dos mesmos aos serviços prestados;
Change Management (Gerenciamento de mudanças) – minimizar o impacto da mudança, requerida para resolução do incidente ou problema, mantendo a qualidade dos serviços, bem como melhorar a operacionalização da infra-estrutura;
Release Management (Gerenciamento de liberações) – prevenir a indisponibilidade do serviço, garantindo que as instalações de versões de hardware e software estejam seguras, autorizadas e devidamente testadas.
Service Delivery
Os processos desta área e seus objetivos são:
Service Level Management/SLM (Gerenciamento de Nível de Serviços) – garantir o acordo de nível de serviço (SLAs) previamente estabelecido entre o fornecedor e o cliente;
Financial Management for IT Service (Gerenciamento Financeiro para TI) – demonstrar ao cliente o custo real dos serviços prestados e gerenciá-los de forma profissional;
Availability Management (Gerenciamento de Disponibilidade) – garantir a disponibilidade e confiabilidade dos recursos de TI, a fim de assegurar a satisfação do cliente e a reputação do negócio;
Capacity Management (Gerenciamento de Capacidade) – assegurar que a capacidade da infra-estrutura de TI está adequada às demandas do negócio conforme a necessidade e no tempo esperado, observando sempre o gerenciamento do custo envolvido;
IT Service Continuity Management/ITSCM (Gerenciamento de Continuidade de Serviços) – atender todo o processo de gerenciamento da continuidade do negócio, assegurando que os recursos técnicos e sistemas de TI sejam recuperados quando requeridos, no tempo desejado.
Referências
itSMF An Introductory Overview of ITIL V3 (em inglês)
itSMF International
IT Service Management Forum Brasil
Loja Virtual do itSMF Brasil
ITIL Version 2 Library (em inglês)

quinta-feira, 11 de dezembro de 2008

Certificações - Está na Hora de Obter a sua?

Atualmente todos profissionais de TI, que estão procurando emprego ou pretendem procurar, acabam sempre batendo a cara em muitas chances por falta de conhecimento, experiencia ou certificações. Faz tempo que podemos ver uma infinidade de

História da computação.

O Início dos Computadores
A capacidade do ser humano em calcular quantidades nos mais variados modos foi um dos fatores que possibilitaram o desenvolvimento da matemática e da lógica. Nos primórdios da matemática e da álgebra, utilizavam-se os dedos das mãos para efetuar cálculos.
Na região do Mar Mediterrâneo, surgiram o alfabeto e o ábaco.
A primeira ferramenta conhecida para a computação foi o ábaco, cuja invenção é atribuída a habitantes da Mesopotâmia, em torno de 2400 a.C.. Seu uso original era desenhar linhas na areia com rochas. Versões mais modernas do ábaco ainda são usadas como instrumento de cálculo.
O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze cheia de sulcos. Também surgiram alguns termos matemáticos: em latim "Calx" significa mármore, assim "Calculos" era uma bolinha do ábaco, e fazer cálculos aritméticos era "Calculare".
No século V a.C., na antiga Índia, o gramático Pānini formulou a gramática de Sânscrito usando 3959 regras conhecidas como Ashtadhyāyi, de forma bastante sistemática e técnica. Pānini usou meta-regras, transformações e recursividade com tamanha sofisticação que sua gramática possuía o poder computacional teórico tal qual a Máquina de Turing.
Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se um período de considerável progresso na construção de ferramentas de cálculo.
John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.
A primeira máquina de verdade foi construída por Wilhelm Schickard (1592-1635), sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.
A primeira calculadora capaz de realizar as operações básicas de soma e subtração foi inventada em 1642 pelo filósofo, físico e matemático francês Blaise Pascal. Pascal, que aos 18 anos trabalhava com seu pai em um escritório de coleta de impostos na cidade de Rouen, desenvolveu a máquina para auxiliar o seu trabalho de contabilidade. A calculadora usava engrenagens que a faziam funcionar de maneira similar a um odômetro. Pascal recebeu uma patente do rei da França para que lançasse sua máquina no comércio. A comercialização de suas calculadoras não foi satisfatória devido a seu funcionamento pouco confiável, apesar de Pascal ter construído cerca de 50 versões.
A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.
Em 1671, o filósofo e matemático alemão de Leipzig,Gottfried Wilhelm Leibniz introduziu o conceito de realizar multiplicações e divisões através de adições e subtrações sucessivas. Em 1694, a máquina foi construída, no entanto, sua operação apresentava muita dificuldade e sujeita a erros.
Em 1820, o francês natural de Paris, Charles Xavier Thomas, conhecido como Thomas de Colmar,projetou e construiu uma máquina capaz de efetuar as 4 operações aritméticas básicas: a Arithmomet. Esta foi a primeira calculadora realmente comercializada com sucesso. Ela fazia multiplicações com o mesmo princípio da calculadora de Leibnitz e efetuava as divisões com a assistência do usuário.
Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.
Os Algoritmos
No século VII, o matemático indiano Brahmagupta explicou pela primeira vez o sistema de numeração hindu-arábico e o uso do 0. Aproximadamente em 825, o matemático persa Al-Khwarizmi escreveu o livro Calculando com numerais hindus, responsável pela difusão do sistema de numeração hindu-arábico no Oriente Médio, e posteriormente na Europa. Por volta do século XII houve uma tradução do mesmo livro para o latim: Algoritmi de numero Indorum. Tais livros apresentaram novos conceitos para definir sequências de passos para completar tarefas, como aplicações de aritmética e álgebra. Por derivação do nome, atualmente usa-se o termo algoritmo.
A Revolução Industrial
Em 1801, na França, durante a Revolução Industrial, Joseph Marie Jacquard, mecânico francês, (1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando levou o tear para Lyon, pois as pessoas tinham medo de perder o emprego. Em sete anos, já havia 11 mil teares desse tipo operando na França.
Babbage e Ada
A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801, Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de cartões.
A idéia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871), um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”, uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.
O brilhante matemático inglês Charles Babbage (26 de dezembro de 1791 - 18 de outubro de 1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador Analítico", muito próximo da concepção de um computador atual.














Charles Babbage foi um matemático inglês.

Foi com Charles Babbage que o computador moderno começou a ganhar forma, através de seu trabalho no engenho analítico. O equipamento, apesar de nunca ter sido construído com sucesso, possuía todas as funcionalidades do computador moderno. Foi descrito originalmente em 1837, mais de um século antes que qualquer equipamento do gênero tivesse sido construído com sucesso. O grande diferencial do sistema de Babbage era o fato que seu dispositivo foi projetado para ser programável, item imprescindível para qualquer computador moderno.
Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o calculador analítico, extremamente semelhante ao computador atual.
O projeto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria automático.
Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos cálculos do moinho.
Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.
Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico, que também construiu uma versão completa, utilizando as técnicas disponíveis na época.
Durante sua colaboração, a matemática Ada Lovelace publicou os primeiros programas de computador em uma série de notas para o engenho analítico. Por isso, Lovelace é popularmente considerada como a primeira programadora.Em parceria com Charles Babbage, Ada Augusta (1815-1852) ou Lady Lovelace, filha do poeta Lord Byron, era matemática amadora entusiasta. Ela se tornou a pioneira da lógica de programação, escrevendo séries de instruções para o calculador analítico. Ada inventou o conceito de subrotina, descobriu o valor das repetições - os laços (loops) e iniciou o desenvolvimento do desvio condicional.Junto com Babbage, trabalhou a jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e Ada Lovelace. Ada foi a primeira programadora da história, projetando e explicando, a pedido de Babbage, programas para a máquina inexistente. Ada inventou os conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes, loop, uma instrução que permite a repetição de uma seqüência de cartões, e do salto condicional, que permite saltar algum cartão caso uma condição seja satisfeita.
Babbage teve muitas dificuldades com a tecnologia da época, que era inadequada para se construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento por parte do governo britânico, Babbage e Ada utilizaram a fortuna da família Byron até a falência, sem que pudessem concluir o projeto, e assim o calculador analítico nunca foi construído.
Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram construídas muitas máquinas mecânicas de somar destinadas a controlar negócios (principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).
A Lógica Binária
Por volta do século III a.C., o matemático indiano Pingala inventou o sistema de numeração binário. ainda usado atualmente no processamento de todos computadores modernos, o sistema estabelece que sequências específicas de uns e zeros podem representar qualquer número, letra ou imagem.
Em 1703 Gottfried Leibniz desenvolveu a lógica em um sentido formal e matemático, utilizando o sistema binário. Em seu sistema, uns e zeros também representam conceitos como verdadeiro e falso, ligado e desligado, válido e inválido. Levou mais de um século para que George Boole publicasse a álgebra booleana (em 1854), com um sistema completo que permitia a construção de modelos matemáticos para o processamento computacional. Em 1801 apareceu o tear controlado por cartão perfurado, invenção de Joseph Marie Jacquard, no qual buracos indicavam os uns, e áreas não furadas indicavam os zeros. O sistema está longe de ser um computador, mas ilustrou que as máquinas poderiam ser controladas pelo sistema binário.
As máquinas do início do século XIX utilizavam base decimal (0 a 9), mas foram encontradas dificuldades em implementar um dígito decimal em componentes eletrônicos, pois qualquer variação provocada por um ruído causaria erros de cálculo consideráveis.
O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso), que passou a ser utilizada a partir do início do século XX.
Shannon e a Teoria da Informação
Até a década de 1930, engenheiros eletricistas podiam construir circuitos eletrônicos para resolver problemas lógicos e matemáticos, mas a maioria o fazia sem qualquer processo, de forma particular, sem rigor teórico para tal. Isso mudou com a tese de mestrado de Claude E. Shannon de 1937, A Symbolic Analysis of Relay and Switching Circuits. Enquanto tomava aulas de Filosofia, Shannon foi exposto ao trabalho de George Boole, e percebeu que tal conceito poderia ser aplicado em conjuntos eletro-mecânicos para resolver problemas de lógica. Tal idéia, que utiliza propriedades de circuitos eletrônicos para a lógica, é o conceito básico de todos os computadores digitais. Shannon desenvolveu a teoria da informação no artigo de 1948 A Mathematical Theory of Communication, cujo conteúdo serve como fundamento para áreas de estudo como compressão de dados e criptografia.
Hollerith e sua máquina de perfurar cartões
Por volta de 1890, Dr. Herman Hollerith (1860-1929) foi o responsável por uma grande mudança na maneira de se processar os dados dos censos da época.
O próximo avanço dos computadores foi feito pelo americano Herman Hollerith (1860-1929), que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados (pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos cartões.
Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe.
As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador mecânico.
Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação. Anos depois, em 1924, essa companhia veio a se chamar como International Business Machines,ou IBM,como é hoje conhecida.
O primeiro computador
Há uma grande polêmica em torno do primeiro computador. O Z-1 é considerado por muitos como o primeiro computador eletromecânico. Ele usava relés e foi construído pelo alemão Konrad Zuse (1910-1995) em 1936. Zuse tentou vendê-lo ao governo para uso militar, mas foi subestimado pelos nazistas, que não se interessaram pela máquina.
O primeiro computador eletro-mecânico foi construído por Konrad Zuse (1910–1995). Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.
A guerra e os computadores
Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha americana, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.
Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu em 1944 o Mark I, um gigante eletromagnético. Num certo sentido, essa máquina era a realização do projeto de Babbage.
Mark I ocupava 120 m3, tinha milhares de relés e fazia muito barulho. Uma multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada.
Em segredo, o exército norte-americano também desenvolvia seu computador. Esse usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com maior precisão.
Simultaneamente, e em segredo, o Exército Americano desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchy, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2], capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.
O engenheiro John Presper Eckert (1919-1995) e o físico John Mauchly (1907-1980) projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18 000 válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses após o final da guerra. Os custos para a manutenção e conservação do ENIAC eram proibitivos, pois dezenas a centenas de válvulas queimavam a cada hora e o calor gerado por elas necessitava ser controlado por um complexo sistema de refrigeração, além dos gastos elevadíssimos de energia elétrica.
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:
1.Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros. 2.Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e 3.Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.
Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.
Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.
O nascimento da Ciência da Computação
Antes da década de 1920, computador era um termo associado a pessoas que realizavam cálculos, geralmente liderados por físicos em sua maioria mulheres. Milhares de computadores, eram empregados em projetos no comércio, governo e sítios de pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser usada para referir-se a qualquer máquina que realize o trabalho de um profissional computador, especialmente aquelas de acordo com os métodos da Tese de Church-Turing.
O termo máquina computacional acabou perdendo espaço para o termo reduzido computador no final da década de 1940, com as máquinas digitais cada vez mais difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a Máquina de Turing, que posteriormente evoluiu para o computador moderno.
O Trabalho Teórico
Os fundamentos matemáticos da ciência da computação moderna começaram a serem definidos por Kurt Gödel com seu teorema da incompletude (1931). Essa teoria mostra que existem limites no que pode ser provado ou desaprovado em um sistema formal; isso levou a trabalhos posteriores por Gödel e outros teóricos para definir e descrever tais sistemas formais, incluindo conceitos como recursividade e cálculo lambda.
Em 1936 Alan Turing e Alonzo Church independentemente, e também juntos, introduziram a formalização de um algoritmo, definindo os limites do que pode ser computado, e um modelo puramente mecânico para a computação. Tais tópicos são abordados no que atualmente chama-se Tese de Church-Turing, uma hipótese sobre a natureza de dispositivos mecânicos de cálculo. Essa tese define que qualquer cálculo possível pode ser realizado por um algoritmo sendo executado em um computador, desde que haja tempo e armazenamento suficiente para tal.
Turing também incluiu na tese uma descrição da Máquina de Turing, que possui uma fita de tamanho infinito e um cabeçote para leitura e escrita que move-se pela fita. Devido ao seu caráter infinito, tal máquina não pode ser construída, mas tal modelo pode simular a computação de qualquer algoritmo executado em um computador moderno. Turing é bastante importante para a ciência da computação, tanto que seu nome é usado para o Turing Award e o teste de Turing. Ele contribuiu para as quebras de código da Grã-Bretanha na Segunda Guerra Mundial, e continuou a projetar computadores e programas de computador pela década de 1940; cometeu suicídio em 1954.
Alan Turing
Alan Mathison Turing nasceu em 23 de junho de 1912 em Londres, filho de um oficial britânico, Julius Mathison e Ethel Sara Turing. Seu interesse pela ciência começou cedo, logo que aprendeu a ler e escrever, distraia-se fatorando números de hinos religiosos e desenhando bicicletas anfíbias. A maior parte do seu trabalho foi desenvolvido no serviço de espionagem, durante a II Grande Guerra, levando-o somente por volta de 1975 a ser reconhecido como um dos grandes pioneiros no campo da computação, Em 1928, Alan começou a estudar a Teoria da Relatividade, conhecendo Christopher Morcom, que o influenciou profundamente. Morcom morreu em 1930 e Alan se motivou a fazer o que o amigo não teve tempo, durante anos trocou correspondências com a mãe de Morcom a respeito das idéias do amigo e se maravilhou com a possibilidade de resolver problemas com a teoria mecânica quântica.Chegou inclusive a escrever sobre a possibilidade do espirito sobreviver após a morte.
Depois de concluir o mestrado em King's College (1935) e receber o Smith's prize em 1936 com um trabalho sobre a Teoria das Probabilidades, Turing se enveredou pela área da computação. Sua preocupação era saber o que efetivamente a computação poderia fazer. As respostas vieram sob a forma teórica, de uma máquina conhecida como Turing Universal Machine, que possibilitava calcular qualquer número e função, de acordo com instruções apropriadas.
Quando a II Guerra Mundial eclodiu, Turing foi trabalhar no Departamento de Comunicações da Gran Bretanha (Government Code and Cypher School) em Buckinghamshire, com o intuito de quebrar o código das comunicações alemãs, produzido por um tipo de computador chamado Enigma. Este código era constantemente trocado, obrigando os inimigos a tentar decodifica-lo correndo contra o relógio. Turing e seus colegas cientistas trabalharam num sistema que foi chamado de Colossus, um enorme emaranhado de servo-motores e metal, considerado um precursor dos computadores digitais.
Durante a guerra, Turing foi enviado aos EUA a fim de estabelecer códigos seguros para comunicações transatlânticas entre os aliados. Supõe-se que foi em Princeton, NJ, que conheceu Von Neumann e daí ter participado no projeto do ENIAC na universidade da Pensilvânia..
Terminada a guerra, Alan se juntou ao National Physical Laboratory para desenvolver um computador totalmente inglês que seria chamado de ACE (automatic computing engine).Decepcionado com a demora da construção, Turing mudou-se para Manchester. Em 1952, foi preso por "indecência", sendo obrigado a se submeter à pisicoanálise e a tratamentos que visavam curar sua homosexualidade.Turing suicidou-se em Manchester, no dia 7 de junho de 1954, durante uma crise de depressão, comendo uma maçã envenenada com cianureto de potássio.
O Teste de Turing
O teste consistia em submeter um operador, fechado em uma sala, a descobrir se quem respondia suas perguntas, introduzidas através do teclado, era um outro homem ou uma máquina. Sua intenção era de descobrir se podiamos atribuir à máquina a noção de inteligência.










John Von Neumann
O matemático húngaro John Von Neumann (1903-1957) formalizou o projeto lógico de um computador.
Em sua proposta, Von Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da exe cução, as instruções seriam obtidas com rapidez eletrônica.
A maioria dos computadores hoje em dia segue o modelo proposto por Von Neumann.
Esse modelo define um computador seqüencial digital em que o processamento das informações é feito passo a passo, caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada produzem sempre a mesma resposta).
Gerações de computadores
A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua implementação depende da tecnologia disponível.
As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do computador (hardware) e um aprimoramento dos programas (software) existentes.
Os computadores de primeira geração (19451959) usavam válvulas eletrônicas, quilômetros de fios, eram lentos, enormes e esquentavam muito.
A segunda geração (19591964) substituiu as válvulas eletrônicas por transístores e os fios de ligação por circuitos impressos, o que tornou os computadores mais rápidos, menores e de custo mais baixo.
A terceira geração de computadores (19641970) foi construída com circuitos integrados, proporcionando maior compactação, redução dos custos e velocidade de processamento da ordem de microssegundos. Tem início a utilização de avançados sistemas operacionais.
A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau de miniaturização, confiabilidade e velocidade maior, já da ordem de nanossegundos (bilionésima parte do segundo).
O termo quinta geração foi criado pelos japoneses para descrever os potentes computadores "inteligentes" que queriam construir em meados da década de 1990. Posteriormente, o termo passou a envolver elementos de diversas áreas de pesquisa relacionadas à inteligência computadorizada: inteligência artificial, sistemas especialistas e linguagem natural. Mas o verdadeiro foco dessa ininterrupta quinta geração é a conectividade, o maciço esforço da indústria para permitir aos usuários conectarem seus computadores a outros computadores. O conceito de supervia da informação capturou a imaginação tanto de profissionais da computação como de usuários comuns.
Realizações para a sociedade
Apesar de sua pequena história enquanto uma disciplina acadêmica, a ciência da computação deu origem a diversas contribuições fundamentais para a ciência e para a sociedade. Esta ciência foi responsável pela definição formal de computação e computabilidade, e pela prova da existência de problemas insolúveis ou intratáveis computacionalmente. Também foi possível a construção e formalização do conceito de linguagem de computador, sobretudo linguagem de programação, uma ferramenta para a expressão precisa de informação metodológica flexível o suficiente para ser representada em diversos níveis de abstração.
Para outros campos científicos e para a sociedade de forma geral, a ciência da computação forneceu suporte para a Revolução Digital, dando origem a Era da Informação. A computação científica é uma área da computação que permite o avanço de estudos como o mapeamento do genoma humano









Conceito de Tecnologia da Informação

O termo Tecnologia da Informação serve para designar o conjunto de recursos tecnológicos e computacionais para geração e uso da informação.
Também é comumente utilizado para designar o conjunto de recursos não humanos dedicados ao armazenamento, processamento e comunicação da informação, bem como o modo como esses recursos estão organizados em um sistema capaz de executar um conjunto de tarefas.
A TI não se restringe a equipamentos (hardware), programas (software) e comunicação de dados. Existem tecnologias relativas ao planejamento de informática, ao desenvolvimento de sistemas, ao suporte ao software, aos processos de produção e operação, ao suporte de hardware, etc.
A sigla TI, tecnologia da informação, abrange todas as atividades desenvolvidas na sociedade pelos recursos da informática. É a difusão social da informação em larga escala de transmissão, a partir destes sistemas tecnológicos inteligentes. Seu acesso pode ser de domínio público ou privado, na prestação de serviços das mais variadas formas.
Pequenas e grandes empresas dependem dela para alcançar maior produtividade e competitividade. Através de passos simples ensinados por empresas do ramo, muitas alcançam sucesso e alavancam maiores rendimentos.
A aplicação, obtenção, processamento, armazenamento e transmissão de dados também são objeto de estudo na TI. O processamento de informação, seja de que tipo for, é uma atividade de importância central nas economias industriais avançadas por estar presente com grande força em áreas como finanças, planejamento de transportes, design, produção de bens, assim como na imprensa, nas atividades editoriais, no rádio e na televisão. O desenvolvimento cada vez mais rápido de novas tecnologias de informação modificou as bibliotecas e os centros de documentação (principais locais de armazenamento de informação) introduzindo novas formas de organização e acesso aos dados a obras armazenadas; reduziu custos e acelerou a produção dos jornais e possibilitou a formação instantânea de redes televisivas de âmbito mundial. Além disso, tal desenvolvimento facilitou e intensificou a comunicação pessoal e institucional, através de programas de processamento de texto, de formação de bancos de dados, de editoração eletrônica, bem de tecnologias que permitem a transmissão de documentos, envio de mensagens e arquivos, assim como consultas a computadores remotos (via rede mundiais de computadores, como a internet). A difusão das novas tecnologias de informação trouxe também impasse e problemas, relativos principalmente à privacidade dos indivíduos e ao seu direito à informação, pois os cidadãos geralmente não tem acesso a grande quantidade de informação sobre eles, coletadas por instituições particulares ou públicas.
As tecnologias da informação não incluem somente componentes de máquina. Existem tecnologias intelectuais usadas para lidar com o ciclo da informação como: técnicas de classificação, por exemplo, que não requerem uso de máquinas apenas um esquema. Este esquema pode, também, ser incluído em um software que será usado mas isso não elimina o fato que a técnica já existia independentemente do software. As tecnologias de classificação e organização de informações existem desde que as bibliotecas começaram a ser formadas. Qualquer livro sobre organização de bibliotecas traz essas tecnologias.