terça-feira, 27 de novembro de 2007

Sistemas baseados em regras

Herbert Simon, acerca dos sistemas baseados em regras: Em vez do método de pesquisa força-bruta, temos um método combinado de pesquisa e raciocínio.


Esta frase é bastante explicativa daquilo que constitui um sistema baseado em regras. Estes sistemas são também conhecidos como sistemas periciais ou sistemas baseados em conhecimento. Trata-se de um sistema de apoio à decisão que procura representar o modo de raciocínio e o conhecimento utilizado por especialistas na resolução de problemas no seu âmbito de especialidade. Ou seja, existe um paralelismo entre estes sistemas e a forma como os especialistas humanos atingem um alto nível de desempenho na resolução de problemas, na medida em que estes conhecem muito bem as suas áreas de especialização.

Um dos primeiros sistemas baseados em regras conhecidos foi o MyCin, que foi desenvolvido na década de 70 na Universidade de Stanford e tinha como objectivo fazer o diagnóstico de doenças infecciosas através de dados sanguíneos e recomendar os antibióticos apropriados.

Nos anos seguintes desenvolveram-se sistemas idênticos aplicados a outros domínios de problemas, nomeadamente na área da auditoria contabilística e recomendação fiscal.

De forma mais abrangente, todas as situações, quer envolvam planeamento, diagnóstico, interpretação de dados, optimização ou comportamento social, podem ser expressos mediante um conjunto de regras bem definidas.

Um sistema baseado em regras é um tipo de modelo que utiliza regras explícitas para expressar o conhecimento do domínio de um problema e permite, através da confrontação do conhecimento existente com factos conhecidos sobre um determinado problema, inferir regras relativas a esses factos.

As componentes básicas deste sistema são:

i) Base de conhecimento ou base de regras

Constitui uma espécie de base de dados que, em vez de dados, contém as regras do sistema.

As regras assumem a forma de: Se x então y, em que x é a descrição de determinada situação e y é a acção desencadeada como consequência.

Designa-se por condição o lado esquerdo da regra, (antes do “se”), e por acção o lado direito da regras (depois do “se”).

A ideia por detrás da utilização de regras para representar conhecimento é a de que, utilizando um número suficiente destas regras, se consegue fazer uma cobertura completa do domínio de raciocínio que um perito utiliza para resolver problemas desse domínio.

Cada regra descreve uma região do espaço do problema. Usando uma abordagem do tipo divide-and-conquer (divide e conquistarás), consegue-se representar todo o espaço do problema por um conjunto bem definido de regras, reduzindo a complexidade desse espaço.

ii) Memória

Serve para guardar temporariamente factos iniciais e conclusões intermédias ou hipóteses.

iii) Interface com o utilizador

É o front-end do sistema, onde se introduz os factos do problema e se recebem os resultados ou conclusões retiradas pelo sistema.

iv) Interpretador de regras ou mecanismo de inferência

É o algoritmo que vai procurar fazer o “matching” (correspondência) dos factos iniciais do problema colocado (guardados na memória) com as regras existentes na base de conhecimento a fim de “disparar” a regra que melhor se aplica a esse facto. Quando há um match entre um facto do problema e uma regra, é feita a instanciação da regra e, se não existir conflito com outras regras derivadas de outros factos, esta é seleccionada e guardada novamente na memória ou, caso não existam outros factos para analisar, enviada para a interface com o utilizador.

A figura seguinte exemplifica o funcionamento de sistema.

O ciclo de confrontação das regras com os factos, sendo feita uma correspondência e seleccionando aquelas que se aplica a uma dada situação chama-se reconhecimento – acção.

Este tipo de sistemas tem grande aplicação nos casos em que se consegue representar pequenas peças de conhecimento do domínio de um problema mas não se conhece um critério global de solução óptima.

Se colocarmos um especialista a resolver um problema ele irá seguir um determinado caminho para chegar a uma solução; outro especialista poderá seguir caminho diverso e, ainda assim, chegar à mesma solução. A resolução do problema depende do caminho adoptado, ou seja, das peças de conhecimento que são analisadas por cada perito, sendo extremamente difícil definir o que é a solução global óptima.

Uma das grandes vantagens deste tipo de sistema é a possibilidade de substituir a base de conhecimento, mantendo as restantes componentes, para se ter um novo sistema pericial de um diferente domínio do problema. A explicabilidade da solução é também uma das grandes vantagens a salientar, pois a aplicação de modelos num contexto de negócio pretende-se o mais transparente possível para que a decisão tomada seja claramente entendida por todos os intervenientes. Por outro lado, se estivermos perante um problema que se estruture em demasiadas regras, a sua abordagem via este tipo de sistemas pode ser de difícil implementação.

Sistemas periciais vs Árvores de Decisão

Os sistemas periciais implicam uma estruturação prévia do conhecimento (com base em regras, como vimos) que permite deduzir novos dados. As técnicas de Data Mining podem ser encaradas como o inverso: permitem “vasculhar” a memória que reside nos dados e descobrir padrões e regras significativas. Numa perspectiva de extracção de conhecimento bottom-up, não existem pressupostos e é dada aos dados a oportunidade de se expressarem.

A extracção de conhecimento pode ser:

- supervisionada: a tarefa consiste em explicar o valor de um determinado campo com base nos outros. Seleccionamos um campo alvo e pedimos ao computador para o estimar, prever ou classificar. O exercício de análise de churn posto em prática nas aulas em Clementine usando Árvores de Decisão é um exemplo típico deste tipo de aprendizagem. Partindo de um conjunto de variáveis que caracterizavam clientes cujo comportamento de abandono é conhecido (a variável alvo aqui tomava dois valores possíveis: churners e não churners), foi possível obter um modelo que diferenciava estas duas tipologias de clientes e que, face a um novo conjunto de clientes atribuía uma probabilidade de pertencer aos dois grupos.

- não-supervisionada: não existe um alvo, pedimos à heurística/algoritmo para identificar nos dados padrões significativos. A segmentação de uma base de dados de clientes é um dos exemplos de aplicação da aprendizagem não supervisionada, pois apesar de o output final ser a constituição de agrupamentos de clientes com base em semelhanças, não existe uma classificação pré-definida. O K-means é um dos métodos mais usados neste tipo de problemas de negócio.

Retomando a temática das Árvores de Decisão iniciada nas aulas, vimos como uma das suas principais vantagens é a extracção de regras, que podem facilmente ser expressas em linguagem corrente, de modo a serem bem compreendidas pelos analistas e pelos gestores. Apesar de muitas vezes não ser fundamental conhecer a forma de funcionamento do modelo, existem problemas onde a possibilidade de explicar as razões que justificam determinadas decisões é essencial.

Se nos Sistemas Periciais é fundamental envolver os peritos para explicitar as regras que expressam o conhecimento do domínio de um problema, com as Árvores de Decisão o processo é o inverso. As Árvores de Decisão abordam o processo de extracção de conhecimento numa perspectiva de indução, ou seja, há uma generalização dos padrões encontrados nos dados que depois se traduzem em regras, sem existir um conjunto de premissas formuladas inicialmente sobre as relações entre objectos. Contudo, há que controlar a quantidade de regras geradas pois a knowledge-base extraída pode ser tão má em complexidade tempo e espaço como a base inicial - não nos esqueçamos que, no limite, cada entrada de uma tabela pode originar uma regra. Essa questão é abordada através de técnicas de desbaste da Árvore de Decisão (prunning) e na minimização da diversidade nos nós terminais da Árvore (ou seja, garantir a maior proporção possível de objectos correctamente classificados). Estas técnicas serão devidamente detalhadas no 3º trimestre da cadeira de Data Mining. Irão ver que, no fundo, é como jogar ao jogo das 20 perguntas: a resposta à primeira pergunta determina as questões seguintes e na maior parte das vezes chegamos à solução final sem serem feitas todas as perguntas possíveis, porque os padrões já encontradas por associação das respostas às perguntas anteriores (é vermelho? SIM, é redondo? SIM, é um fruto? SIM), permite-nos chegar à resposta correcta na maioria dos casos (É UMA MAÇÃ???!! NÃO! Vêem aos pares? SIM!! ENTÃO SÃO CEREJAS!).

Por Ana Cristina Cardoso e Ana Sofia Marques

domingo, 18 de novembro de 2007

TPCs 16 e 17 de Novembro

Os TPCs das aulas desta semana são:

a) Fazer a metadata de negócio do problema que cada um representou através de um diagrama de influência;
b) ler o capítulo n.º 7 do livro Seven methods for transforming corporate data into Business Intelligence (Dhar & Stein), que é sobre sistemas baseados em regras (ou sistemas periciais).

Para melhor compreender a importância da análise de dados para BI, ler os seguintes capítulos do livro Discovering knowledge in data (opcional):
- cap. 1 (principalmente a parte final que respeita a what tasks can data mining accomplish?)
- cap. 2
- cap. 3

Por: Ana Cristina e Ana Sofia

quarta-feira, 14 de novembro de 2007

Fuzzy: A lógica do mais ou menos.



Aristóteles, filósofo grego (384 - 322 a.C.), foi o fundador da ciência da lógica. Uma teoria toda ela baseada em certezas absolutas como o Sim, o Não, o E e o Ou.

A lógica Fuzzy ou das variáveis difusas, assume que, entre um Sim e um Não, existe um Mais ou Menos, ou seja, entre a certeza de ser e a certeza de não ser, existem infinitos graus de incerteza.

Estes tipos de incerteza, no entanto, são diferentes da incerteza a Teoria das probabilidades. Enquanto as probabilidades se aplicam a casos e sistemas independentes, as variáveis fuzzy caracterizam-se pela sua inter-dependência, é que a lógica Fuzzy aplica-se principalmente em conjuntos de variáveis contínuas, que podem ser incluídas em vários conjuntos, sendo conhecidos por Conjuntos Nebulosos.

Por exemplo, um homem de 1,75 é alto ou é baixo?

Não podemos responder concerteza se ele é baixo ou se é alto, mas podemos atribuir-lhe uma percentagem de "baixo" e uma percentagem complementar para"alto", no entanto uma coisa é certa, entre o homem de 1,75 de altura e um outro de 1,80, este último é de certeza mais alto que o primeiro.

Desde que foi inventada, em 1965 por Lotfi A. Zadeh (Universidade da Califórnia, Berkeley), que existe uma certa concorrência com a teoria das probabilidades, contudo, a Lógica Fuzzy, com base na teoria dos Conjuntos Nebulosos (Fuzzy Set), tem-se mostrado mais adequada para tratar imperfeições da informação.

Os conjuntos Fuzzy constituem uma "ponte " no caminho de aproximar o raciocínio humano ao da lógica executada pela máquina.

Na prática, as variáveis difusas caracterizam-se por pertencer em simultâneo a vários conjuntos numa determinada proporção entre eles. Esta proporção é designada por Grau de Pertinência.

Este conceito de dualidade, estabele que um determinado estado, pode e deve coexistir com o seu oposto, e deste modo faz da Lógica Fuzzy, uma lógica natural, até mesmo inevitável.


Figura 1: Exemplo da intersecção de variáveis entre conjuntos



Características da Lógica Difusa


- A Lógica Difusa baseia-se em palavras e não em números, ou seja, os valores verdadeiros são expressos adjectivos, por exemplo: quente, muito frio, verdade, longe, perto, rápido, vagaroso, médio, etc.

- Ou então em predicados como por exemplo: muito, mais ou menos, pouco, bastante, médio, etc.

- Possui também conjuntos de quantificadores, como por exemplo : poucos, vários, aproximadamente, habitualmente.

- Faz uso das probabilidades da lingua como por exemplo: provável, improvável, que são interpretados como números fuzzy e manipulados pela sua aritmética.

- As variáveis são sempre associadas a um grau de pertinência com valores entre 0 e 1.


Figura 2: Exemplo de aplicação de variáveis fuzzy



Vantagens da utilização de variáveis Fuzzy



- Requer poucas regras, valores e decisões;

- Fácilmente se integram com outras variáveis observáveis;

- O uso de variáveis verbais aproxima a sua aplicação à lógica do pensamento humano;

- Simplifica a resolução de problemas;

- Proporciona uma análise rápida e facilidade de criação de protótipo dos sistemas;

- Simplifica a aquisição e transmissão do conhecimento.



Exemplos práticos de problemas Fuzzy


Para podermos perceber melhor este conceito, nada melhor do que dar-mos uma olhada aos exemplos em baixo:


Exemplo 1: Classificação de
Casas


Uma imobiliária pretende classificar as casas que tem para oferecer aos seus clientes.
Um dos indicadores de conforto é o número de divisões da casa.
Em baixo representamos o universo de tipos de casas num conjunto (FuzzySet).

U = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}

Este conjunto descreve o numero de divisões das casas.

A Imobiliária pretende descrever o grau de conforto que as suas casas proporcionam a uma familia de quatro pessoas.

Solução: O conjunto difuso “Tipo de casa confortável para uma familia de quatro pessoas” pode ser descrito do seguinte modo.





Que conclusões podemos tirar daqui?

Primeiro sobre o conjunto fuzzy: Verifica-se que associado ao numero de divisões da casa existe um classificador que vai de zero a um. É o Grau de Pertinência.

Sobre o resultado: Lógicamente que casas até 4 divisões crescem no conforto oferecido. A partir das cinco divisões, o conforto decresce consoante o critério estabelecido.


Exemplo 2: Representar a faixa etária


2-1. Representar o conjunto Universo da idade razoável para os seres humanos.

U = {0, 1, 2, 3, ... , 100}



2-2. Assumir que o conceito de Novo é definido pelo seguinte conjunto trapezóidal:



O conceito de velho pode também ser representado por um conjunto onde os membros estão definidos da seguinte forma:



Podemos deste modo definir o conceito de meia idade como não sendo nem novo nem velho. Isto faz-se utilizando operadores da lógica Fuzzy:



Podemos assim definir um conjunto fuzzy que represente o conceito de meia idade através da intersecção dos elementos complementares aos dois conjuntos anteriores - Novo e Velho.

Em baixo podemos observar o efeito gráfico desta intersecção de conjuntos:




Podemos pelo gráfico concluir que a intersecção dos Novos com os Velhos dá uma boa definição do conceito de Meia Idade.

Para ver mais exemplos consultar:
http://www.wolfram.com/products/applications/fuzzylogic/examples/



Infra-Estruturas Fuzzy


A resposta de um sistema Fuzzy é contínua e suave com o tempo, aprovada para o controle de sistemas continuamente variáveis, como por exemplo:

- Centrais nucleares, refinarias, processos biológicos e químicos, fornos de calor, máquina diesel, tratamento de águas e sistemas ferroviários de controlo automático.

A Lógica Fuzzy tem encontrado grandes aplicações nas seguintes áreas:

- Sistemas Especialistas; Computação com Palavras; Raciocínio Aproximado; Linguagem Natural; Controle de Processos; Robótica; Modelação de Sistemas Parcialmente Abertos; Reconhecimento de Padrões; Processos de Tomada de Decisão entre outros.


Exemplo de dispositivo Fuzzy


Conclusão

A lógica Fuzzy permite lidar de forma mais eficaz com a gestão de modelos e sistemas complexos, principalmente na gestão de ambientes incertos.
Nos últimos anos, temos vindo a assistir a uma utilização combinada entre esta lógica das variáveis difusas e as Redes Neuronais, que possuem características de adaptação e aprendizagem.
É com base nesta nova espécie de controladores neurodifusos que surgem cada vaz mais sistemas adaptativos e inteligentes que poderão, num futuro próximo, não apenas ajudar a decidir, mas também eles próprios tomarem as decisões, com base na percepção da envolvente.

Rui Almeida Santos



Fontes:
http://www.renci.org/publications/presentations/Autopilot.PerfTuning/sld027.htm
http://www.geocities.com/logicas2000/Fuzzy.htm

segunda-feira, 12 de novembro de 2007

TPCs 9 e 10 de Novembro

Boa noite, eis os TPCs para estas próximas duas semanas:

1 Definir de acordo com os standards portugueses:

           - Pequena , Média e Grande empresa (relacionar com nº de empregados e volume de negócios,por exº)

2 Dar exemplos de variáveis e regras fuzzy no nosso proj gpdw...

Leituras recomendadas: "Making Smarter Decisions" (pdf no osiris); e Simon.

Cumprimentos

sexta-feira, 9 de novembro de 2007

Arquitectura Integrada

Arquitectura Integrada

Data Warehouse

Nos últimos os anos o Data Warehouse tem vindo a oferecer às organizações uma maneira flexível e eficiente de obter as informações que os gestores necessitam nos processos de decisão e caracteriza-se como uma função de apoio à decisão.

Segundo Ralph Kimball (1998), Data Warehoouse “é o lugar onde as pessoas podem aceder aos dados”. Já Wang (1998) tem uma definição mais elaborada que diz que Data Warehoue “é o processo pelo qual os dados relacionados de vários sistemas operacionais são “fundidos”, para proporcionar uma única e integrada visão de informação do negócio que abrange todas as divisões da empresa”.

Normalmente os sistemas de informação das empresas estão literalmente “distribuídos” o que dificulta a percepção da organização como um todo. A maioria dos sistemas são instalados com uma visão local e os seus principais objectivos são resolver um problema isolado. Embora não necessariamente incorrecta, esta abordagem começa a apresentar problemas quando uma visão cruzada é necessária para o entendimento da dinâmica da situação. A integração dessas informações dispersas é um dos desafios do Data Warehouse:


A simples integração não é suficiente, porque, após a recolha dos dados devem ser analisados para determinar o seu significado. Falhas na implementação de sistemas e métodos para análise desses dados, colocam a empresa em desvantagem no mercado que está cada vez mais competitivo. Quanto mais os dados se tornam disponíveis, mais complexos se torna o processo de localizar e extrai informações realmente importantes.

Para Berson (1997), os anos 90 podiam ser recordados como a época na qual as organizações começaram as utilizar os dados com uma visão diferente do operacional.

Os sistemas operacionais, tradicionalmente servem os requsitos da missão crítica com processamentos on-line e batch. Por outro lado, o uso estratégico dos dados caracteriza-se por pesquisas on-line e ad-hoc e funções batch para o apoio à decisão.


O data Warehouse proporciona a integração dos dados na organização, sendo que desta forma não é preciso confrontar várias aplicaçções em pesquisa de uma inteligência nos negócios, basta usar ferramentas analíticas apropriadas. Outra característica importante é a sua natureza história, pois com informações históricas podem-se fazer previsões para o futuro.

A definição clássica de data Warehouse criada por Inmon (1997) é a seguinte:

“Data Warehouse é a colecção de dados orientada por assuntos, integrada, com variação no tempo e não volátil, que tem por obejctivo dar suporte aos processos de tomada de decisão”.

Integrada porque contêm dados num estado uniforme, ou sejam existe uma consistência entre nomes, unidade das variáveis, etc. A integração, umas das mais importantes características do data Warehouse, pode acontecer de várias formas: em consistentes convenções de nomes, consistentes medidas de variáveis, consistentes estruturas de dados, consistentes atributos físicos de dados, etc.

A seguinte imagem exemplifica essa integração:




Além de ser um repositório de dados “crus”, o Data Warehouse também é um repositório de dados sumários, ou agregados, em formato simplificado dos sistemas operacionais. Além disso existem diferentes níveis de idade dos dados. Basicamente, um Data Warehouse, é composto por cinco tipos de daods (Gray, 1997; Inmon &Hackathorn, 1994) que estão esquematizados na seguinte imagem:



O conceito de Corporate Information factory (CIF) – segundo Imhoff (2000), define uma arquitectura lógica cujo propósito é entregar capacidade de inteligência e gestão dos negócios dirigida por dados providos por operações de negócios. Essa “fabrica” cria uma arquitectura técnica estável e duradoura para qualquer tamanho de empresa desejando contruir sistemas de apoio à decisão estratégicos e tácticos. Basicamente a CIF consiste produtores de dados e consumidores de informação.

Imhoff (2000) diz que o fluxo de dados/informação dentro da fábrica seria o seguinte: os sistemas produtores na FIC captam e transformam os dados (aquisição de dados) dos sistemas operacionais provenientes de diversas fontes (actividade e dados externos) e guardam-nos (gestão e armazenamento) num formato utilizável (data Warehouse ou ODS) para serem utilizado pelos consumidores do negócio. Os consumidores da FIC conseguem a informação produzida (entrega de dados), manipulam-na (Data-Marts) e a utilizam-na no seu próprio ambiente (Análises Estatísticas e Análises Analíticas)

A seguinte imagem mostra bem esse fluxo e resume todo o ambiente:



Integração de DSS

A seguinte imagem mostra como um DSS pode ser intergrado, a sua arquitectura e como interage com os diversos actores:


Aquitectura Adaptada de http://www.pentaho.com/products/

Fonte:
Wikipedia e Guilberto de Come, Estudo da Implementação de Data Warehousing, Novembro 2001



Funções e Níveis da Gestão - Detalhado

Funções e Níveis da Gestão - Detalhado

Organização

Uma organização é uma entidade social conscientemente coordenada, com uma fronteira relativamente identificável, que funciona numa base relativamente contínua para atingir um objectivo comum ou um conjunto de objectivos.

Outras definições para Organização:

Organizar é atribuir a uma estrutura (partes), as funções das partes e seu relacionamento (estrutura organizacional) em uma entidade ou empresa.

Organização é um sistema que tem objectivos específicos e uma estrutura organizacional com recursos que devem ser geridos para atingir os seus objectivos.

Funções e Níveis da Gestão

Para que uma empresa atinja os objectivos, é indispensável que todos os recursos envolvidos funcionem em perfeita coordenação.

Isto é, só se consegue assegurar mediante uma actuação deliberada de prossecução dos objectivos da empresa e uma aplicação adequada dos seus recursos, com vista à satisfação dos interesses de todos os envolvidos na empresa.

É esta actividade que designamos como Gestão.

Funções da Gestão

A gestão incorpora um conjunto de funções que permitem conduzir a empresa de forma a que os seus objectivos sejam atingidos.

No seguinte quadro estão descritas as grandes funções da gestão:

Função

Descrição

Planeamento

Os gestores definem objectivos e a forma de os atingir

Organização

Os gestores definem as inter-relações entre as diversas funções da empresa

Direcção

Os gestores coordenam a execução de tudo o que foi planeado

Controlo

Os gestores controlam os resultados obtidos, comparando-os com os objectivos pretendidos, e introduzem as necessidades de correcção

Embora o processo de gestão seja uma sequência de fases, estas interagem entre si.

A retroacção entre as diferentes fases torna este processo num sistema dinâmico e em contínua adaptação â envolvente externa e à situação interna da empresa.

Níveis de Gestão

Dentro duma empresa cada pessoa tem a seu cargo um conjunto de tarefas, que poderão ser apenas de gestão, no caso de directores/administradores, ou um misto de gestão e execução, nos casos de níveis intermédios, ou apenas de execução, no caso dos empregados de nível mais baixo.

O seguinte quadro mostra os níveis típicos de uma organização:

Nível

Descrição

Nível institucional (gestão de topo)

Área onde são decididas as estratégias da empresa, a sua eventual integração em estruturas empresariais mais complexas (grupos económicos) e, de um modo geral, definidos os equilíbrios e procedimentos que asseguram a sobrevivência e o sucesso de todo o sistema empresarial

Nível de gestão (gestão intermédia)

Processo de intervenção sobre as realidades operacionais visando melhorá-las, segundo critérios de rendibilidade e de acordo com as indicações de mercado

Nível operacional

Formas de combinação de recursos humanos e materiais que a empresa utiliza para a realização das operações produtivas e comerciais. Neste sistema a racionalidade das decisões permanece limitada aos aspectos técnico

Os níveis institucional e de gestão serão os que têm a seu cargo as funções de gestão (planeamento, organização, direcção e controlo).

Dependendo da posição em que cada pessoa se encontra na empresa, o tempo dedicado a cada função será diferente.

A gestão de topo tem um maior componente de planeamento e organização.

Nos níveis mais baixos da gestão a função direcção (no sentido de liderança/coordenação) terá maior peso. De facto, quanto maior é o peso das actividades de gestão, menos é o das actividades de execução.

Distribuição de tempo/níveis de gestão



Fonte: Parcialmente baseado e adaptado de Thomas A. Mahoney H. Ferdee, and Stephen gentlemen Carrol, "The Job(s) os Management", Industrial Relations

Áreas de Actuação da Gestão

A actividade primordial da gestão de empresas que designámos de gestão institucional consiste na identificação do valor que a empresa pode gerar na economia e da melhor aplicação de recursos com sita a gerar esse valor.

Designamos esta tarefa gestão estratégica.

O desempenho da gestão estratégica arte da compreensão da relação da empresa com o seu meio ambiente. De facto, a actividade da empresa não ocorre do vazio. Cada empresa é um elo numa complexa malha de entidade: empresas, instituições públicas, pessoas, grupos de interesse. Encontramos aqui uma primeira área de actuação da gestão de empresas: identificar o lugar da empresa na complexa teia que constitui o seu meio envolvente, procurando determinar em que medida esta influência o comportamento da empresa e em que medida este comportamento influencia o meio.

Matriz Níveis/Funções


Planeamento é:

Um esforço sistemático e formal que visa estabelecer direcção para aumentar a probabilidade de ocorrência dos resultados desejados.

Um processo desenvolvido para o alcance de uma situação desejada de maneira mais eficiente, eficaz e efectiva, com a melhor concentração de esforços e utilização de recursos.

Princípios gerais:

Contribuição aos objectivos máximos da empresa.

Precedência do planeamento em relação às demais funções administrativas.

Maior penetração e abrangência, causando modificações nas pessoas, tecnologias e sistemas.

Maior eficiência, eficácia e efectividade

Algumas Razões para Planear

Constantes mudanças no meio ambiente

Necessidade de antecipar situações desejadas e evitar situações não desejadas

Necessidade de adaptação organizacional

Sequências do planeamento


O Planeamento Estratégico é o processo pelo qual:

os gestores de uma organização constroem uma visão de futuro desejável;

as estratégias para realizar esta visão são definidas;

e são estruturadas operações e projectos para implementar as estratégias.

Um processo de Planeamento Estratégico deve:

Ter a participação de todos os gestores;

Estabelecer uma primeira proposta de um plano estratégico possível de ser implementada;

Capacitar o corpo Directivo nos conceitos do planeamento estratégico;

Ser uma GRANDE oportunidade para discussão entre os gestores;

Introduzir o pensamento estratégico em todos os níveis de responsabilidade;

Ter uma liderança forte

Fases do planeamento


Recursos para o Planeamento

Pessoas comprometidas (tempo)

Moderador/Facilitador (externo)

Informações sobre o ambiente

Indicadores internos

Capacitação dos participantes

Ferramentas

Infra-estrutura

Resultados do Planeamento

Plano Estratégico

Necessidade de Recursos para implementação das estratégias

Um Bom Plano Estratégico

Possui consistência entre missão, visão, objectivos, estratégias e implementação.

Foca no que pode trazer vantagem competitiva.

É simples o suficiente para ser usado e complexo o bastante para ser útil.

É flexível para se adequar às condições reais da implementação.

Organização é:

O processo administrativo que visa à estruturação da empresa, reunindo pessoas e os equipamentos, de acordo com o planeamento efectuado.

Referente a estrutura organizacional, pode-se entendê-la recorrendo a duas teorias de organização:

1ª) Teoria organicista: as empresas são comparadas ao organismo animal. Trata-se de um estudo pelo processo analógico, por meio do qual se observa a semelhança entre coisas diferentes. Podemos dizer que o conceito de órgão envolve a palavra função, que significa a acção de cada órgão, ou no caso da empresa, os serviços executados em cada departamento ou secção.

2ª) Teoria comportamentista: as empresas constituem uma reunião de pessoas que trabalham para a produção de mercadorias e/ou serviços. As relações que se estabelecem entre as pessoas que trabalham numa empresa constituem o que se chama de estrutura organizacional.

A estrutura organizacional determina quais os cargos ou postos que devem ser ocupados pelas pessoas, bem como as funções (ou serviços) a serem desempenhadas por elas.

Quando a empresa é organizada chama-se: “Estrutura de Organização Formal”, estabelecimento da linha de autoridade (quem tem autoridade sobre os subordinados) e a linha de responsabilidade (quem tem de prestar obediência a determinada autoridade).

Direcção é:

O processo administrativo que conduz e coordena o pessoal na execução das tarefas antecipadamente planejadas.”

Dirigir uma empresa significa conseguir que os empregados executem as tarefas (ou serviços) pelas quais respondem.

“Tarefa é um trabalho que se há de concluir em determinado tempo; serviço é o exercício de funções obrigatórias, ou, então, o desempenho de qualquer trabalho.”

Controlo é:

O processo administrativo que consiste em verificar se tudo está sendo feito de acordo com o que foi planejado e as ordens dadas, bem como assinalar as faltas e os erros, a fim de repará-los e evitar sua repetição.”



In Blog, SIAD Blog - Rui Norte

quinta-feira, 8 de novembro de 2007

Sobre o tema da complexidade dos sistemas

Olá colegas,

deixo-vos aqui uma contribuição relativa ao TPC de 03-11-2007 sobre a complexidade dos sistemas.



Cumprimentos a todos,
Rui Cunha

domingo, 4 de novembro de 2007

Alteração ao Excel GigaHertz/Performance Rate (PR)


Na aula anterior, eu levantei a questão da capacidade de processamento de um processador não ser medida apelas pela sua velocidade de relógio real.

Então, a professora Trigueiros, pediu-me para alterar a folha de cálculo utilizada na aula, para a forma de cálculo de eu estava a falar.

Então a alteração é simples:

Onde se encontra “GigaHertz” é alterar para “Performance rate” ou simplesmente PR.

Ter atenção que, antigamente, um processador de 1 Gigahertz equivalia a 1000 de Performance Rate.

Para não serem necessárias mais alterações na folha de cálculo o performace rate deverá ser dividido por 1000.

Exemplos:

1 . Processador Core 2 Duo E6850, tem um performance rate de 6850 e trabalha a uma frequência de relógio de 3000 Mhz. Neste caso no Excel, no campo “performace rate” deverá ser colocado “6.85” (6850 / 1000 = 6.85).

2. Processador Athlon 64 X2 6400, tem um performance rate de 6400 e trabalha a uma frequência de relógio de 3200 MHz. Neste caso no Excel, no campo “performace rate” deverá ser colocado “6.4” (6400 /1000 = 6.4).

Toda a explicação para esta alteração pode ser consultada no Post Clock Speed vs Performance Rate (CS vs PR)

Junto um pequeno excerto do Post:

"...
O fim da corrida pelos MHz..

Entre 2001 e 2003, a Intel e a AMD fizeram poucas alterações ao designe dos seus processadores. A melhoria do desempenho era conseguida, através do aumento da velocidade de relógio, em vez de melhorarem as arquitecturas do processador.

Em meados de 2004, a Intel encontrou uma série de problemas quando continuava a aumentar a velocidade de relógio do seu processador Pentium 4 acima dos 3.4 GHZ, por causa da enorme temperatura que o seu processador com core Pesccott atingia.

O Pentium 4 a 4 GHz que tinha data marcada para o seu lançamento para o mercado, foi cancelado.

Em resposta a Intel começou a explorar novas formas de aumentar o desempenho dos seus processadores, diferentes do simples aumento da velocidade de relógio.

Começou por abandonar a arquitectura do Pentium 4 e recomeçou aproveitando a arquitectura do Pentium 3, no qual aumentou o tamanho das Caches internas e transformou-o no Pentium M.

Entretanto, a AMD já tinha introduzido no mercado o seu processador Athlon, com arquitectura 64 bits e de múltiplos processadores.

A Intel que na altura só disponha de processadores com performance inferior ao Athlon viu-se obrigada a seguir o mesmo caminho, de multiprocessador e arquitectura 64 bits.

Por causa destas mudanças de estratégia, ironicamente a Intel que sempre contestou a utilização dos “PR” comercializa actualmente os seus processadores com desempenho baseado nos resultados de “PR”, em vez da velocidade de relógio.

Alguns especialistas acreditam que o esquema de utilização de “PR””em vez dos Ghz, não é nada mais que uma estratégia de marketing, em vez de uma medida para quantificar o desempenho dos processadores.

Actualmente, os profissionais de informática e os amadores, utilizam testes exaustivos de Benchmark para determinarem o desempenho dos processadores em várias aplicações."

(SIAD Blog)


Continuação de bom trabalho,

Rui Norte

TPC - 2007-11-03

TPC 2007.11.03

a) Continuar o TPC da aula anterior, relativo aos níveis e funções da Gestão.

a.1) Definir as várias funções, os vários níveis e complementar com exemplos.

a.2) Fazer o cruzamento, em matriz, entre os níveis e as funções, bem como o tempo ocupado por cada uma das fases.

b) Na folha de cálculo utilizada na aula, que calcula o tempo necessário de processamento, criar uma nova análise que nos permita calcular o espaço ocupado (medida mínima Bytes).

c) Desenhar uma arquitectura de sistemas distribuídos, integrada, que contemple todos os sistemas necessários ao apoio à decisão.

e) Procurar respostas para as seguintes questões:

e.1) Quais as estruturas que nos permitem lidar com a complexidade dos sistemas?

e.2) Como é que uma estrutura integrada de sistemas vai lidar com a complexidade dos problemas de espaço?

e.3) Integrar significa “juntar tudo”?!

Bom trabalho,

Rui Norte


segunda-feira, 29 de outubro de 2007

7 Habits of Highly Effective People

Neste intervalo de 2 semanas de aulas, tive oportunidade de ler o livro de Stephen Covey sobre os 7 hábitos para pessoas altamente eficazes.
Covey apresenta-nos uma visão integrada para o desenvolvimento das capacidades de eficácia baseada em hábitos, que se propõem auxiliar no caminho entre a dependência (em relação aos outros), a independência e a interdependência, melhorando assim continuamente a nossa eficácia e a dos que nos rodeiam.

Covey - 7 Habits

Neste sentido, os 3 primeiros hábitos ajudam-nos a ganhar vitórias no sentido da independência, através da consciência do Eu, a capacidade de controlar o que sou, através da imaginação, ou a habilidade para mentalmente criar novas realidades com mudanças de paradigma e vontade própria para tomar pulso nos nossos próprios actos (“Be Proactive”). Todos os dias, as mudanças de paradigma levam-nos a descobertas espantosas, pois passamos a ver o problema de outra perspectiva. Os Físicos por exemplo tentam, ainda hoje, fazer mais uma mudança de paradigma espantosa, tentando unir a Teoria de Relatividade de Albert Einstein com a Teoria da Física Quântica de Niels Bohr numa Teoria do Tudo, uma abstracção da realidade.
Os hábitos de Covey levam-nos ainda a definir os nossos princípios, as balizas da nossa vida, aqueles marcos que são inamovíveis e aos quais temos obrigatoriamente de obedecer. Através deles podemos definir a nossa missão e os nossos objectivos orientados pelos nossos princípios (“Begin with the End in Mind”).
O último hábito com vista à independência, “Put First Things First”, ajuda-nos a definir as prioridades das tarefas com que lidamos todos os dias e divide-as em quatro: As importantes e urgentes, as importantes e não urgentes, as urgentes mas não importantes e as não urgentes e não importantes. Segundo Covey, o máximo da eficácia está no segundo tipo de tarefas, as importantes e não urgentes, pois são as que representam a manutenção preventiva, o pensamento criativo e o planeamento e devemos tentar que as tarefas que desempenhamos tenham este perfil.
Com os 3 primeiros hábitos, atingimos segundo Covey a verdadeira independência e podemos então começar a estabelecer as fundações para a interdependência através do conhecimento do outro, da capacidade de cumprir compromissos, de saber clarificar expectativas e de saber mostrar integridade para com os outros.

Para isso devemos cumprir mais 3 objectivos. Primeiro, procurar o benefício mútuo nas relações profissionais e pessoais. Só desta forma as partes se sentem confiantes com as decisões tomadas e impelidas a cumprir os objectivos traçados (“Think Win/Win”). Segundo, aprender a realmente entender o que os outros têm para nos dizer e não apenas ouvir sem entender. Depois de entender o que os outros nos dizem, há que saber ser entendido. A maturidade encontra-se no balanço entre coragem e consideração, entender os outros requer consideração, procurar ser entendido requer coragem. O paradigma Win/Win necessita de ambos. A partir do momento em que conseguimos transmitir as nossas ideias de uma forma clara, aumentamos a sua credibilidade (“Seek First to Understand… Then to Be Understood”).
O último hábito do percurso com vista à interdependência ajuda-nos a encontrar sinergias para que o todo seja maior do que a soma das partes. Os que nos rodeiam têm capacidades, que juntas, criam novas realidades muito mais poderosas através da cooperação criativa. Este hábito (“Synergize”) vive das energias e das diferenças de cada um e a mistura dos vários paradigmas permite transcender os limites pessoais.
Assim se chega segundo Covey á interdependência, saber unir as nossas capacidades como seres independentes, às dos que nos rodeiam.

O último hábito (“Sharpen the Saw”) ajuda-nos a viver constantemente à luz dos hábitos aqui enumerados, melhorando constantemente as nossas capacidades e tentando fazer novas mudanças de paradigma que nos permitam ver, cada vez melhor, os problemas com que somos confrontados.

“We must not cease from exploration. And the end of all our exploring will be to arrive where we began and to know the place for the first time” – T.S. Elliot

in Blog, João Guerreiro

Decisões de Negócio

Não são muitas as vezes em que, durante a nossa vida, somos iluminados por um ou outro conceito que nos permite uma mudança de paradigma tal, que a partir dali, nada mais vemos da mesma maneira, pelo mesmo prisma.

Alguns desses conceitos, aplicados à área de gestão de negócio e sistemas de apoio à decisão, têm-nos sido transmitidos de forma clara nos últimos tempos e sinto neste momento necessidade de tentar reunir neste artigo alguns que julgo serem de extrema importância para a compreensão de uma série de matérias do conhecimento que estamos a adquirir e que todos esperamos transformar em sabedoria durante o nosso Mestrado.

Um dos conceitos principais que desde a primeira hora serviu de base ao nosso percurso é que a teoria de decisão assenta em 3 factores fundamentais, o facto de que temos de saber onde estamos (where-from), para onde vamos (where-to) e como vamos (how-to). O peso de cada um destes factores e a ordem pela qual devem ser tomados em consideração, é a chave para o sucesso e para as teorias de decisão modernas, diferentes das utilizadas no passado dos DSS (Sistemas de Apoio à Decisão).

art8-1222.jpg

À luz destes factores e ordenando-os para que possam ser decisivos, devemos antes de mais, procurar saber para onde vamos, abstraindo-nos de todos os vícios inerentes à actividade actual do negócio. Não são raros os casos em que o mais fácil será atalhar caminho, discutindo como vamos atingir determinado objectivo, sem antes o definir de forma clara. Isto pode, de facto, levar-nos a traçar caminhos longos para objectivos mal definidos. Um objectivo indica-nos uma direcção e não o meio de transporte, esse deve ser escolhido só depois de sabermos todos os destinos que queremos “visitar”.

Neste sentido, há que definir, prioritizar e hierarquizar os nossos objectivos estratégicos à luz da modelação das influências ou relações entre as nossas variáveis de decisão ou de input, as variáveis intermédias e as variáveis de output ou os nossos indicadores de performance que nos vão ajudar a medir os nossos objectivos. É aqui que, deste sistema pouco ou nada estruturado, temos de saber bem definir o nosso destino.

De seguida e antes ainda de escolher como se vai atingir a estratégia anterior, há que saber onde estamos, qual o estado presente do negócio, quais as decisões operacionais. Os dados e os modelos estão profundamente ligados, e os dados representam o que somos e é deles que podemos extrair conhecimento.

Só assim podemos, mais tarde, definir como o vamos fazer, modelando as decisões tácticas e aqui já temos um sistema fortemente estruturado, onde os objectivos de decisão estão claramente determinados sem conflitos, as variáveis ou alternativas são poucas e os efeitos da decisão são determinísticos. É aqui que entra o know-how, a gestão de conhecimento, onde vamos criando um roadmap para a resolução dos problemas que resulta de uma aprendizagem constante e iterativa destes 3 factores do sistema.

art8-21.jpg

Para concretizar os nossos objectivos, ou seja, definir a direcção em que nos vamos mover de forma a representar melhor as nossas necessidades e para que possam ser completos, minimalistas, compreensíveis e medíveis, é preciso ter dados e modelos numa relação fortemente acoplada de forma que uns não possam viver sem os outros. E realmente não podem, pois dados sem modelos não representam informação, estão fora de contexto.

Assim, temos uma dualidade modelos-dados interdependente e circular, proposta pela Professora Maria José Trigueiros em que os nossos modelos de negócio, ou seja, o nosso conhecimento explícito decorrente da análise das nossas decisões estratégicas nos permite deduzir dados, e os dados nos permitem, por seu lado, induzir ou extrair novo conhecimento.

art8-3.jpg

Este parece-me ser um dos pontos basilares da nossa formação e que a partir do momento em que conseguimos a mudança de paradigma, abstraindo-nos alguns níveis acima da simples camada de dados, entendemo-lo como sendo o sistema que melhor permite responder às exigências do apoio á decisão.

Espero ter conseguido explicitar aquilo que apreendi de uma forma perceptível, no entanto, isto é apenas a estrutura sob a qual assentam os sistemas de apoio à decisão e conto convosco para me ajudarem a melhor definir ou clarificar alguns pontos deste artigo e de outros que se seguirão.

in blog, João Guerreiro

domingo, 28 de outubro de 2007

TPC do dia 27-10-2007

Bom dia comunidade,
x
Junto segue a lista de TPC's que deveremos apresentar esta semana:
  1. Concluir exercício de representação de relações iniciado na aula (Excel), estruturando exemplos de relações quadráticas e logarítmicas;
  2. Enunciar exemplos de indicadores de gestão, especificando qual o tipo de relação que lhes é subjacente;
  3. Enunciar quais as tarefas tipo de um gestor. Relacionar os tipos de tarefas do gestor com os níveis de decisão organizacional (Estratégico, Táctico, Operacional), em termos de nº de decisões- exemplo: as decisões de planeamento são mais comuns ao nível estratégico, táctico ou operacional ?

Pedro Malcata

sábado, 27 de outubro de 2007

Quem mexeu no meu queijo? - Spencer Johnson


Mais um Post dedicado a leituras.


Quem tiver comentários a fazer ou souber de alguém que o faça, é favor colocar aqui o respectivo link, como por exemplo o link em baixo:


Seven Methods For Transforming Corporate Data Into Business Intelligence


Post dedicado ao livro de Vasant Dhar e Roger Stein.

Todos os comentários sobre a leitura deste livro são bem vindos.

Cumprimentos

RS

Links Artigos:

Seven Methods For Transforming Corporate Data Into Business Intelligence , por Rui Cunha;




sexta-feira, 26 de outubro de 2007

Conceitos da semana - Metadados, ETL & EIS

Metadados:

São frequentemente descritos como dados sobre dados, ou seja, a informação dos conteúdos dos dados, a extensão que cobrem, o sistema de referência, o modelo de representação, a distribuição, qualidade, frequência de actualização, restrições de segurança, etc.

Desta forma, os objectivos dos metadados, ao nível do DW, são:

  • Pesquisa do conjunto de dados: é essencial saber que dados existem, quais os que estão disponíveis e outras características específicas relevantes para as necessidades do utilizador. Para o efeito, os metadados armazenam a informação do referido conjunto, o porquê da sua criação, quando, quem os produziu e como.
  • Escolha dos dados: a possibilidade de comparar entre si diferentes conjuntos de dados, de forma a poder a seleccionar quais os que cumprem os requisitos requeridos pelos utilizadores.
  • A utilização. No alcance de um melhor desempenho, obtenção de melhores resultados, e claro, de uma melhor execução da manutenção (correctiva, evolutiva e preventiva) e respectivas actualizações, o utilizador necessita de conhecer as características técnicas dos dados, de forma ampla e completa. Estas particularidades, que permitem igualmente um aumento do desempenho da exploração, são fornecidas pelos metadados.

ETL – Extract, Transform and Load

O primeiro passo do ETL é simplesmente a definição das fontes de dados e a extracção deles. Estes dados “em bruto”, podem vir de diversos formatos e de vários sistemas (transaccionais, operacionais ou dados de sistemas externos à organização). Nesta fase os dados são transferidos de BD’s hierárquicas ou de grande volume, e através do SGBD, transferidos para o DW, tal como o IQ da Sybase, Red Brick da Informix, Essbase ou o DB2 para DW. A selecção dos dados do sistema operacional é muitas vezes complexa, pois é necessário seleccionar vários campos para compor um único campo no DW (e o mesmo se aplica a sistemas transaccionais).

O segundo passo consiste na limpeza e transformação desses dados. Esta limpeza é consequente da miscelânea e na inconsistência presente. Temos igualmente que fazer uma transformação, pois os dados são extraídos de vários sistemas, e apesar poderem possuir a mesma informação, poderão ter diferentes formatos. É necessário também manter a coerência da estrutura dos dados e das chaves.

Por fim, o carregamento dos dados para o DW. Geralmente são carregados em bulk loading (de uma só vez), em tabelas de factos e tabelas de dimensões. Após ocorrer este processo, os dados são indexados.


Executive Information System (EIS)

Os EIS não são mais do que a gestão de sistemas de informação com o intuito de facilitar e suportar a informação e as necessidades de tomada de decisão, fornecendo, através de uma interface gráfica easy-to-use, o acesso acessível à informação externa e interna relevante à estratégia da organização. Oferecem uma forte particularidade como o reporting e capacidades de drill-down.

Concluindo, os EIS auxiliam os gestores, analistas e/ou executivos nas suas análises, comparações e permitem monitorizar de uma forma mais pormenorizada e completa o desempenho (aka performance) da organização, bem como identificar oportunidades e problemas. Um exemplo recente dos EIS, são os dashboards digitais.


Cardoso, Pedro

domingo, 21 de outubro de 2007

TPC 4 (20/10/2007) - Grupo - Fazer um Modelo

Ou fazer o exercício da pág. 33 do Bodly
Ou fazer um modelo pequeno (como o que vimos na aula pag.27 do Bodly)

Paulo Batista

TPC 3 (20/10/2007) - Grupo - Procurar Grupos de Trabalho Onde se Possam Definir Hierarquias

Fazer árvores de objectivos para vários grupos de trabalho possíveis.
p. ex. Grupo de Trabalho de SIAD


Paulo Batista

TPC 2 (20/10/2007) - Colocar um "Estudo de Caso" para crítica no Blog individual

Escolher um "caso", dentro na nossa especialidade, numa situação em que ajudámos alguém.
Fazer a árvore de Bodly.
Colocar no blog individual para discussão.

Paulo Batista

TPC 1 (20/10/2007) - Reformular a Hierarquia de Objectivos Pessoais

Na hierarquia de objectivos pessoais, focarmo-nos no "para onde vou" e reformular de acordo com Bodly:

Utilizar objectivos "mensuráveis", ou seja, as variáveis utilizadas devem poder medir o desempenho.

Paulo Batista

sexta-feira, 19 de outubro de 2007

TPC Grupo 13/10/2007 - DSS Definição, Indução vs Dedução e Indicadores

DSS - Definição

Um DSS é um sistema controlado por um ou mais decisores no sentido de melhorar a eficácia do resultado do processo de decisão. Suporta este processo, disponibilizando um conjunto de ferramentas que ajudam a estruturar os problemas de decisão.

Características comuns aos DSS

• Utilizados em contextos semi-estruturados ou não estruturados, ou seja, onde existe incerteza associada;

• Visa suportar os decisores e não substituí-los;

• Centra-se na eficácia do processo de decisão e não na sua eficiência– ou seja, não se pretende a melhor solução, mas uma solução em tempo útil – princípio do satisficing;

• Interliga dados e modelos – aos invés de sistemas análogos que são centrados apenas a modelos ou apenas a dados;

• Encontra-se sob o controlo do decisor e facilita a sua aprendizagem;

• Deve ser desenvolvido de um modo iterativo;

• Deve responder às questões quer de índole estratégica quer operacional, servindo tanto a gestão de topo como os gestores de linha;


(elementos adaptados de Decision Support Systems in the 21st Century -Marakas, George)


Dedução e Indução
A dedução e a indução são dois tipos de inferências. A Dedução é o mais simples e fidedigno. Parte de uma premissa maior para uma menor. Este raciocínio baseia-se na veracidade das premissas: se as premissas são verdadeiras, a conclusão será igualmente verdadeira.

A indução é mais do que a mera aplicação de uma regra geral a um caso particular. Parte de uma premissa menor para uma maior, ao contrário do raciocínio Dedutivo. A indução é a inferência de uma conclusão, a partir da análise de um determinado caso e do seu resultado. Sendo assim, ela ocorre quando generalizamos a partir de certo número de casos em que algo é verdadeiro e que pode ser aplicado a situações idênticas.

Quando utilizamos modelos que explicam a realidade do nosso negócio e a partir deles obtemos novos dados, estamos a usar um processo dedutivo. Com os dados obtidos, estamos a gerar novo conhecimento e podemos validar o modelo de partida. Como se costuma dizer, conhecimento gera conhecimento. A validação do modelo pode levar a ajustes, e o novo modelo por sua vez, poderá dar origem a novos dados, ou seja, este é um processo iterativo em cuja progressão iremos sucesivamente dispor de um modelo mais colado à realidade e com maior capacidade de geração de informação auxiliar à tomada de decisão.

Note-se que muitas vezes não dispomos à partida de um modelo e o que fazemos é, descobrindo as relações escondidas entre variáveis, propor um modelo. Este é um processo de indução.





Indicador

Definições de Indicador elaboradas por Maria das Graças Rua:


“- Indicadores são unidades de medida que permitem "aferir" resultados, impactos, qualidade, etc., dos processos e das intervenções (projectos, programas ou políticas) na realidade.
- Os indicadores são instrumentos de gestão, essenciais nas actividades de manutenção e avaliação de projectos, programas e políticas, porque permitem acompanhar a procura das metas, identificar avanços, ganhos de qualidade, problemas a ser corrigidos, necessidades de mudança, etc.
- Os indicadores não são simplesmente dados: são uma atribuição de valor a objectos, acontecimentos ou situações, de acordo com certas regras, para que possam ser aplicados critérios de avaliação como eficácia, efectividade, eficiência e outros.
- Enquanto medidas, os indicadores devem ser definidos em termos operacionais: por meio das categorias pelas quais se manifestam e podem ser mensurados; e por meio das suas evidências físicas e documentais.”

Os indicadores são portanto, unidades de medida que permitem tirar conclusões/características de determinadas situações da realidade, dando-nos desta forma uma visão do seu estado.
Os factos do modelo dimensional representam os indicadores/métricas do negócio a ser analisado. Os indicadores e as métricas revelam o comportamento e o desempenho do negócio. Desta forma será possível retirar conclusões das situações que se pretende analisar, a partir dos valores associados aos indicadores e às métricas escolhidas. O foco de análise devem os indicadores da organização e os dados necessários para calculá-los. Pode-se também, apresentar os indicadores através das próprias métricas (medidas) que traduzam a actividade relevante.


por Joana Eusébio / Nuno Matamouros

quinta-feira, 18 de outubro de 2007

História dos Sistemas de Apoio à Decisão (SAD) - Por Magda & Ruis





Quando falamos de Sistemas de Apoio à Decisão (SAD), está implicita a idéia de tecnologia, mais concretamente, do surgimento dos computadores.
Não podemos dissociar que, com o surgir dos computadores, surgiram também modelos lógico matemáticos para programar estas complexas máquinas.
Ou seja, a evolução do computador tem tanto de tecnologia como de investigação computacional e de teoria programação. Assim, em 1952, Dantzig começou a sua pesquisa matemática, que a levou a implementar a programação linear.
Foi no início dos anos 60 que os investigadores começaram estudar a utilização de modelos quantitativos computorizados para o apoio à decisão.

A História dos SAD

Conforme se pode confirmar pelo artigo publicado pelo Mestrando Rui Norte no seu Blog, os modelos e tecnologias caminharam lado a lado, até que, em 1964, surgiu o sistema SIG, por intermédio da IBM.
Este Sistema de Informação de Gestão, fornecia aos gestores relatórios periódicos e estruturados sobre dados contabilísticos e processos de transacções. Não havia a possibilidade de interacção entre o sistema e o gestor, para apoiar a tomada de decisão.

A evolução dos sistemas de apoio à decisão depressa se libertou desta estruturação rigida e caminhou no sentido não estruturação dos SAD.

Após o aparecimento dos Sistemas de Gestão de Base de Dados Relacionais (SGBDR), nos anos 80, surgiram os primeiros EIS. Os Executive Information Systems (EIS) eram essencialmente interfaces com informação predefinida de apoio à decisão, que os gestores tipicamente queriam ver posta num formato visual intuitivo.

No início dos anos 90 surgem as primeiras soluções de Data Warehousing e OLAP, como resposta às limitações dos EIS, permitindo aos SAD, uma faceta de interacção entre o utilizador e o sistema, que até então não era possível.
Através deste método de consulta e análise, os utilizadores podem proceder autonomamente nas suas consultas e relatórios.

Conceitos de SAD

O Conceito de SAD foi sofrendo várias interpretações ao longo da evolução tecnológica das ferramentas computacionais de suporte à decisão.
Como podemos confirmar no artigo publicado pela Mestranda Magda Vasconcelos, nos anos 70 os SAD eram considerados sistemas computacionais, que usavam bases de dados e modelos, para auxiliar o processo de decisão.
No início dos anos 80, o conceito de interactividade impôs-se, e disciplinas como a investigação operacional e a psicologia cognitiva passaram a fazer parte da área dos SAD.
A abordagem conceptual dos SAD foi alvo da análise de vários autores e, consequentemente, as definições foram também evoluindo até aos tempos actuais.
Das várias definições, consideramos a seguinte como uma das mais completas e actuais.

“Os SAD são sistemas interactivos, baseados em computadores, que têm como objectivo principal ajudar os decisores a utilizar dados e modelos para identificar e resolver problemas, assim como a tomar decisões.”

Lugar aos pequenos

Como se pode verificar no artigo publicado pelo Mestrando Rui Santos, paralelamente à abordagem dos SAD efectuada até aqui, baseada em grandes e complexos sistemas de informação, a evolução dos computadores pessoais possibilitou que pequenas aplicações se tornassem de tal modo úteis e famosas, que seriam elas próprias a contribuir directamente para o sucesso astronómico do mercado dos PCs.

Estamos a falar dos SAD mais utilizados em todo o mundo, as folhas de cálculo, mais concretamente o Microsoft Excel.

A grande diferença entre as folhas de cálculo e os grandes sistemas de apoio à decisão, reside na versatilidade e facilidade de utilização da primeira, uma aplicação quase universal e de conhecimento generalizado, face a sistemas pesados, muitas das vezes com interfaces de utilização pouco intuitivos e com poucas possibilidades no manuseamento e controlo dos dados por parte do utilizador final.

As principais características do Excel residem nos seguintes aspectos:

1) Cálculo Automático
2) Armazenamento de Dados
3) Possibilidades gráficas on-line

Mais recentemente, foram introduzidas novas e poderosas funcionalidades a esta ferramenta, como a inclusão da linguagem VBA, que permite criar/customizar procedimentos automáticos, e também das Pivot Tables, o que possibilita uma analise comparativa entra as várias dimensões existentes no universo de dados em análise.

Conclusão

Os SAD apresentam uma série de benefícios para o processo de tomada de decisão, como alargar a possibilidade do decisor para processar mais informação e conhecimento, bem como contornar problemas grandes, complexos e demorados, para além de reduzir o tempo de resposta da tomada de decisão.
No entanto, estes sistemas também possuem algumas limitações, entre outras o facto de não terem sido concebidos para conter talentos humanos, tais como criatividade, imaginação ou intuição.

Deste modo, os SAD tornam o processo de decisão mais eficaz, contudo, não podem superar ou prever as acções de um fraco decisor. O utilizador é que deve controlar todo o processo, devendo assim possuir conhecimento avançado de utilizar um SAD, que SAD usar, e o mais importante, qual o grau de dependência em relação aos outputs e à informação obtida.



Por Magda & Ruis

domingo, 14 de outubro de 2007

Link DSS

Colegas,

deixo-vos aqui um link com recursos bastante úteis para os tpcs associados ao tema dos DSS's:

http://dssresources.com/evaluation/top5.html

bjos e abraços

Rui Cunha

TPC - 13/10/2007

#1 - Indicadores de Inteligência - discutir a objectividade/subjectividade destes indicadores.

#2 (relembrar) - Indicadores de Inteligência - realizar um ou mais testes de inteligência com o objectivo de nos avaliarmos e conhecermos melhor. Zezinha pede a quem não se importar para lhe fazer chegar as respectivas classificações.

#3 - Modern Decision Making - ler os exemplos de casos de decisão. Rever conceito de Influence Diagram.

#4 - e claro o + importante de todos e que me tinha esquecido de colocar e que ninguém me lembrou ;-) é : Elaborar uma breve história dos DSS

Nuno Matamouros

sábado, 13 de outubro de 2007

George Marakas - Sistemas de Suporte à Decisão no Século XXI


Boa tarde,
Mais um post dedicado a Leituras, neste caso do livro de G.Marakas.
Quem estiver a ler este livro e quiser contribuir com o respectivo resumo, reflexão ou análise crítica, pode e deve fazê-lo no próprio blog e colocar aqui o respectivo link.
A comunidade MSIAD 07/08 agradece.
Saudações

sexta-feira, 12 de outubro de 2007

TPC - 12/10/2007

Questão 1 – Quem inventou as matrizes dimensionais?

Questão 2 – Relatar a história e elaborar um resumo dos Sistemas de Suporte à Decisão ( DSS – Decision support system)



Fernanda Romão

TPC Grupo - 01/10/2007 - Gestão e Evolução do Conhecimento

Pretendo com este artigo partilhar algumas reflexões sobre a importância que a percepção e interpretação da realidade têm na tomada de decisão e na resolução de problemas comuns. É um processo evolutivo fantástico que se exprime através duma aprendizagem contínua baseada em modelos que pretendem mostrar o caminho da sabedoria.

Partindo do início, é essencial falar dos seguintes conceitos e transmitir a real importância da sua relação:
  • Dado;
  • Informação;
  • Conhecimento;
  • Sabedoria;
Dado pode assumir significados distintos, dependendo do contexto no qual a palavra é utilizada. Para uma organização, é o registo estruturado de transacções. Genericamente, pode ser definido como um “conjunto de diferentes factos concretos, relativos a eventos” (DAVENPORT & PRUSAK, 1998). É informação bruta, uma descrição exacta de algo ou de algum evento. Os dados em si não são dotados de relevância, propósito e significado, mas são importantes porque são a matéria-prima essencial para a criação da informação.

Informação é uma mensagem com dados que fazem diferença, podendo ser audível ou visível, e onde existe um emitente e um receptor. É uma das bases mais importantes da produção humana. “São dados interpretados, dotados de relevância e propósito” (DRUCKER, 1999). É um fluxo de mensagens capazes de gerar conhecimento. É um meio ou material necessário para extrair e construir o conhecimento. Afecta o conhecimento acrescentando-lhe algo ou reestruturando-o (MACHLUP, 1983) – contextualização dos dados (relação entre o texto e a situação em que ele ocorre).

Conhecimento procede da informação assim como esta procede dos dados. É a habilidade de transformar a informação em acções reais. O conhecimento é uma mistura de elementos estruturados de forma intuitiva e, portanto, difícil de ser colocado em palavras ou de ser plenamente entendido em termos lógicos. Ele existe dentro das pessoas e é diferente de indivíduo para indivíduo, dai ser complexo e imprevisível. Segundo DAVENPORT e PRUSAK (1998), “o conhecimento pode ser comparado a um sistema vivo, que cresce e se modifica à medida que interage com o meio ambiente”. Os valores e as crenças integram o conhecimento pois determinam, em grande parte, o que o conhecedor vê, absorve e conclui a partir das suas observações.

A sabedoria é o reflexo da vivência, na prática, quer pela experimentação, quer pela observação, da utilização dos conhecimentos previamente adquiridos (o discernimento - não apenas do significado do conhecimento, mas do seu uso e a consciência da sua limitação). Quando se obtêm competências e o conhecimento é consolidado, novos desafios são descobertos, dando lugar a novos problemas associados a novas relações e contextos.

É fundamental perceber a relação íntima que cada um dos estados anteriores têm. Á medida que se vai descobrindo novo conhecimento pela percepção e interpretação da realidade, novos desafios surgem e que dão lugar a novas questões, novas percepções e interpretações. É um ciclo de vida interactivo e gerador de descobertas constantes desencadeadas no meio.

Subjacente a esta filosofia, cada estado representa um patamar na aprendizagem humana e na interpretação útil da realidade, que tende a melhorar com a experiência que se vai adquirindo ao longo do tempo. A extracção e inserção do conhecimento é possível por meio da:
  • Dedução;
  • Indução;
O raciocínio dedutivo parte da dedução formal tal que, postas duas premissas, delas, por inferência, se tira uma terceira, chamada conclusão. Entretanto, deve-se frisar que a dedução não oferece conhecimento novo, uma vez que a conclusão sempre se apresenta como um caso particular da lei geral. A dedução organiza e especifica o conhecimento que já se tem, mas não é geradora de conhecimentos novos. Ela tem como ponto de partida o plano do inteligível, ou seja, da verdade geral, já estabelecida.

Considera-se indução o método de pensamento ou raciocínio em que se extrai de certos factos conhecidos, mediante observação, alguma conclusão geral que não se acha rigorosamente relacionada com eles. Indução pode ser considerada também a inferência conjectural que conclui, da regularidade de certos factos, a existência de outros fatos ligados aos primeiros na experiência anterior.
A indução pode ser:
  • Completa - Faz a enumeração de casos particulares, para chegar a uma síntese ou proposição geral. Não faz comparação entre o predicado e o sujeito, fazendo apenas a redução de várias proposições a uma proposição geral;
  • Incompleta - É a passagem de um juízo particular a um juízo universal. Quanto maior o número de experiências, menor é a incerteza. Quando o número de experiências for suficientemente grande, permite-nos formular uma lei;

Ao inserir e extrair conhecimento do meio está-se a fomentar a aprendizagem humana que evolui à luz da sabedoria que é o reflexo da vivência e interiorização do conhecimento que se vai adquirindo.

O conhecimento humano pode ser avaliado em:

  • Conhecimento explícito;
  • Conhecimento implícito;
  • Conhecimento tácito;

Conhecimento Explicito é o conhecimento do qual temos consciência e que pode ser articulado formalmente através de afirmações gramaticais, expressões matemáticas, especificações, manuais, entre outros e que é facilmente transmitido, sistematizado e comunicado entre os indivíduos.

O conhecimento implícito é um tipo de conhecimento que se pode tornar explícito a qualquer momento. Está relacionado com o conhecimento pessoal incorporado à experiência individual de cada pessoa, mas que pode ser formalizado ou transmitido para outro indivíduo através da comunicação.

Contrariamente ao conhecimento explícito, o conhecimento tácito dificilmente pode ser articulado formalmente. É um conhecimento pessoal incorporado à experiência individual de cada pessoa e envolve factores intangíveis como, por exemplo, crenças pessoais, perspectivas, sistema de valor, intuições, emoções e habilidades. Só pode ser avaliado por intermédio de acções.

“O homem é reconhecido pelo seu conhecimento.”

Após reflectir sobre todas estas dimensões, penso que todas as componentes são unidades estruturais fundamentais que se complementam e a sua integração é a principal dinâmica da criação de competências necessárias para a contínua evolução da sociedade. Em sentido mais restrito, a mesma filosofia se aplica dentro de uma organização.

A gestão de conhecimento numa organização é um processo sistemático, articulado e intencional, apoiado na geração, codificação, disseminação e apropriação de conhecimentos, com o propósito de atingir a excelência organizacional. É, portanto, uma forma de identificação, criação, renovação e aplicação dos conhecimentos que são estratégicos na vida de uma organização. É a administração dos activos de conhecimento das organizações. Permite à organização saber o que ela na realidade representa.

Por Jorge Afonso