terça-feira, 27 de novembro de 2007

Sistemas baseados em regras

Herbert Simon, acerca dos sistemas baseados em regras: Em vez do método de pesquisa força-bruta, temos um método combinado de pesquisa e raciocínio.


Esta frase é bastante explicativa daquilo que constitui um sistema baseado em regras. Estes sistemas são também conhecidos como sistemas periciais ou sistemas baseados em conhecimento. Trata-se de um sistema de apoio à decisão que procura representar o modo de raciocínio e o conhecimento utilizado por especialistas na resolução de problemas no seu âmbito de especialidade. Ou seja, existe um paralelismo entre estes sistemas e a forma como os especialistas humanos atingem um alto nível de desempenho na resolução de problemas, na medida em que estes conhecem muito bem as suas áreas de especialização.

Um dos primeiros sistemas baseados em regras conhecidos foi o MyCin, que foi desenvolvido na década de 70 na Universidade de Stanford e tinha como objectivo fazer o diagnóstico de doenças infecciosas através de dados sanguíneos e recomendar os antibióticos apropriados.

Nos anos seguintes desenvolveram-se sistemas idênticos aplicados a outros domínios de problemas, nomeadamente na área da auditoria contabilística e recomendação fiscal.

De forma mais abrangente, todas as situações, quer envolvam planeamento, diagnóstico, interpretação de dados, optimização ou comportamento social, podem ser expressos mediante um conjunto de regras bem definidas.

Um sistema baseado em regras é um tipo de modelo que utiliza regras explícitas para expressar o conhecimento do domínio de um problema e permite, através da confrontação do conhecimento existente com factos conhecidos sobre um determinado problema, inferir regras relativas a esses factos.

As componentes básicas deste sistema são:

i) Base de conhecimento ou base de regras

Constitui uma espécie de base de dados que, em vez de dados, contém as regras do sistema.

As regras assumem a forma de: Se x então y, em que x é a descrição de determinada situação e y é a acção desencadeada como consequência.

Designa-se por condição o lado esquerdo da regra, (antes do “se”), e por acção o lado direito da regras (depois do “se”).

A ideia por detrás da utilização de regras para representar conhecimento é a de que, utilizando um número suficiente destas regras, se consegue fazer uma cobertura completa do domínio de raciocínio que um perito utiliza para resolver problemas desse domínio.

Cada regra descreve uma região do espaço do problema. Usando uma abordagem do tipo divide-and-conquer (divide e conquistarás), consegue-se representar todo o espaço do problema por um conjunto bem definido de regras, reduzindo a complexidade desse espaço.

ii) Memória

Serve para guardar temporariamente factos iniciais e conclusões intermédias ou hipóteses.

iii) Interface com o utilizador

É o front-end do sistema, onde se introduz os factos do problema e se recebem os resultados ou conclusões retiradas pelo sistema.

iv) Interpretador de regras ou mecanismo de inferência

É o algoritmo que vai procurar fazer o “matching” (correspondência) dos factos iniciais do problema colocado (guardados na memória) com as regras existentes na base de conhecimento a fim de “disparar” a regra que melhor se aplica a esse facto. Quando há um match entre um facto do problema e uma regra, é feita a instanciação da regra e, se não existir conflito com outras regras derivadas de outros factos, esta é seleccionada e guardada novamente na memória ou, caso não existam outros factos para analisar, enviada para a interface com o utilizador.

A figura seguinte exemplifica o funcionamento de sistema.

O ciclo de confrontação das regras com os factos, sendo feita uma correspondência e seleccionando aquelas que se aplica a uma dada situação chama-se reconhecimento – acção.

Este tipo de sistemas tem grande aplicação nos casos em que se consegue representar pequenas peças de conhecimento do domínio de um problema mas não se conhece um critério global de solução óptima.

Se colocarmos um especialista a resolver um problema ele irá seguir um determinado caminho para chegar a uma solução; outro especialista poderá seguir caminho diverso e, ainda assim, chegar à mesma solução. A resolução do problema depende do caminho adoptado, ou seja, das peças de conhecimento que são analisadas por cada perito, sendo extremamente difícil definir o que é a solução global óptima.

Uma das grandes vantagens deste tipo de sistema é a possibilidade de substituir a base de conhecimento, mantendo as restantes componentes, para se ter um novo sistema pericial de um diferente domínio do problema. A explicabilidade da solução é também uma das grandes vantagens a salientar, pois a aplicação de modelos num contexto de negócio pretende-se o mais transparente possível para que a decisão tomada seja claramente entendida por todos os intervenientes. Por outro lado, se estivermos perante um problema que se estruture em demasiadas regras, a sua abordagem via este tipo de sistemas pode ser de difícil implementação.

Sistemas periciais vs Árvores de Decisão

Os sistemas periciais implicam uma estruturação prévia do conhecimento (com base em regras, como vimos) que permite deduzir novos dados. As técnicas de Data Mining podem ser encaradas como o inverso: permitem “vasculhar” a memória que reside nos dados e descobrir padrões e regras significativas. Numa perspectiva de extracção de conhecimento bottom-up, não existem pressupostos e é dada aos dados a oportunidade de se expressarem.

A extracção de conhecimento pode ser:

- supervisionada: a tarefa consiste em explicar o valor de um determinado campo com base nos outros. Seleccionamos um campo alvo e pedimos ao computador para o estimar, prever ou classificar. O exercício de análise de churn posto em prática nas aulas em Clementine usando Árvores de Decisão é um exemplo típico deste tipo de aprendizagem. Partindo de um conjunto de variáveis que caracterizavam clientes cujo comportamento de abandono é conhecido (a variável alvo aqui tomava dois valores possíveis: churners e não churners), foi possível obter um modelo que diferenciava estas duas tipologias de clientes e que, face a um novo conjunto de clientes atribuía uma probabilidade de pertencer aos dois grupos.

- não-supervisionada: não existe um alvo, pedimos à heurística/algoritmo para identificar nos dados padrões significativos. A segmentação de uma base de dados de clientes é um dos exemplos de aplicação da aprendizagem não supervisionada, pois apesar de o output final ser a constituição de agrupamentos de clientes com base em semelhanças, não existe uma classificação pré-definida. O K-means é um dos métodos mais usados neste tipo de problemas de negócio.

Retomando a temática das Árvores de Decisão iniciada nas aulas, vimos como uma das suas principais vantagens é a extracção de regras, que podem facilmente ser expressas em linguagem corrente, de modo a serem bem compreendidas pelos analistas e pelos gestores. Apesar de muitas vezes não ser fundamental conhecer a forma de funcionamento do modelo, existem problemas onde a possibilidade de explicar as razões que justificam determinadas decisões é essencial.

Se nos Sistemas Periciais é fundamental envolver os peritos para explicitar as regras que expressam o conhecimento do domínio de um problema, com as Árvores de Decisão o processo é o inverso. As Árvores de Decisão abordam o processo de extracção de conhecimento numa perspectiva de indução, ou seja, há uma generalização dos padrões encontrados nos dados que depois se traduzem em regras, sem existir um conjunto de premissas formuladas inicialmente sobre as relações entre objectos. Contudo, há que controlar a quantidade de regras geradas pois a knowledge-base extraída pode ser tão má em complexidade tempo e espaço como a base inicial - não nos esqueçamos que, no limite, cada entrada de uma tabela pode originar uma regra. Essa questão é abordada através de técnicas de desbaste da Árvore de Decisão (prunning) e na minimização da diversidade nos nós terminais da Árvore (ou seja, garantir a maior proporção possível de objectos correctamente classificados). Estas técnicas serão devidamente detalhadas no 3º trimestre da cadeira de Data Mining. Irão ver que, no fundo, é como jogar ao jogo das 20 perguntas: a resposta à primeira pergunta determina as questões seguintes e na maior parte das vezes chegamos à solução final sem serem feitas todas as perguntas possíveis, porque os padrões já encontradas por associação das respostas às perguntas anteriores (é vermelho? SIM, é redondo? SIM, é um fruto? SIM), permite-nos chegar à resposta correcta na maioria dos casos (É UMA MAÇÃ???!! NÃO! Vêem aos pares? SIM!! ENTÃO SÃO CEREJAS!).

Por Ana Cristina Cardoso e Ana Sofia Marques

domingo, 18 de novembro de 2007

TPCs 16 e 17 de Novembro

Os TPCs das aulas desta semana são:

a) Fazer a metadata de negócio do problema que cada um representou através de um diagrama de influência;
b) ler o capítulo n.º 7 do livro Seven methods for transforming corporate data into Business Intelligence (Dhar & Stein), que é sobre sistemas baseados em regras (ou sistemas periciais).

Para melhor compreender a importância da análise de dados para BI, ler os seguintes capítulos do livro Discovering knowledge in data (opcional):
- cap. 1 (principalmente a parte final que respeita a what tasks can data mining accomplish?)
- cap. 2
- cap. 3

Por: Ana Cristina e Ana Sofia

quarta-feira, 14 de novembro de 2007

Fuzzy: A lógica do mais ou menos.



Aristóteles, filósofo grego (384 - 322 a.C.), foi o fundador da ciência da lógica. Uma teoria toda ela baseada em certezas absolutas como o Sim, o Não, o E e o Ou.

A lógica Fuzzy ou das variáveis difusas, assume que, entre um Sim e um Não, existe um Mais ou Menos, ou seja, entre a certeza de ser e a certeza de não ser, existem infinitos graus de incerteza.

Estes tipos de incerteza, no entanto, são diferentes da incerteza a Teoria das probabilidades. Enquanto as probabilidades se aplicam a casos e sistemas independentes, as variáveis fuzzy caracterizam-se pela sua inter-dependência, é que a lógica Fuzzy aplica-se principalmente em conjuntos de variáveis contínuas, que podem ser incluídas em vários conjuntos, sendo conhecidos por Conjuntos Nebulosos.

Por exemplo, um homem de 1,75 é alto ou é baixo?

Não podemos responder concerteza se ele é baixo ou se é alto, mas podemos atribuir-lhe uma percentagem de "baixo" e uma percentagem complementar para"alto", no entanto uma coisa é certa, entre o homem de 1,75 de altura e um outro de 1,80, este último é de certeza mais alto que o primeiro.

Desde que foi inventada, em 1965 por Lotfi A. Zadeh (Universidade da Califórnia, Berkeley), que existe uma certa concorrência com a teoria das probabilidades, contudo, a Lógica Fuzzy, com base na teoria dos Conjuntos Nebulosos (Fuzzy Set), tem-se mostrado mais adequada para tratar imperfeições da informação.

Os conjuntos Fuzzy constituem uma "ponte " no caminho de aproximar o raciocínio humano ao da lógica executada pela máquina.

Na prática, as variáveis difusas caracterizam-se por pertencer em simultâneo a vários conjuntos numa determinada proporção entre eles. Esta proporção é designada por Grau de Pertinência.

Este conceito de dualidade, estabele que um determinado estado, pode e deve coexistir com o seu oposto, e deste modo faz da Lógica Fuzzy, uma lógica natural, até mesmo inevitável.


Figura 1: Exemplo da intersecção de variáveis entre conjuntos



Características da Lógica Difusa


- A Lógica Difusa baseia-se em palavras e não em números, ou seja, os valores verdadeiros são expressos adjectivos, por exemplo: quente, muito frio, verdade, longe, perto, rápido, vagaroso, médio, etc.

- Ou então em predicados como por exemplo: muito, mais ou menos, pouco, bastante, médio, etc.

- Possui também conjuntos de quantificadores, como por exemplo : poucos, vários, aproximadamente, habitualmente.

- Faz uso das probabilidades da lingua como por exemplo: provável, improvável, que são interpretados como números fuzzy e manipulados pela sua aritmética.

- As variáveis são sempre associadas a um grau de pertinência com valores entre 0 e 1.


Figura 2: Exemplo de aplicação de variáveis fuzzy



Vantagens da utilização de variáveis Fuzzy



- Requer poucas regras, valores e decisões;

- Fácilmente se integram com outras variáveis observáveis;

- O uso de variáveis verbais aproxima a sua aplicação à lógica do pensamento humano;

- Simplifica a resolução de problemas;

- Proporciona uma análise rápida e facilidade de criação de protótipo dos sistemas;

- Simplifica a aquisição e transmissão do conhecimento.



Exemplos práticos de problemas Fuzzy


Para podermos perceber melhor este conceito, nada melhor do que dar-mos uma olhada aos exemplos em baixo:


Exemplo 1: Classificação de
Casas


Uma imobiliária pretende classificar as casas que tem para oferecer aos seus clientes.
Um dos indicadores de conforto é o número de divisões da casa.
Em baixo representamos o universo de tipos de casas num conjunto (FuzzySet).

U = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}

Este conjunto descreve o numero de divisões das casas.

A Imobiliária pretende descrever o grau de conforto que as suas casas proporcionam a uma familia de quatro pessoas.

Solução: O conjunto difuso “Tipo de casa confortável para uma familia de quatro pessoas” pode ser descrito do seguinte modo.





Que conclusões podemos tirar daqui?

Primeiro sobre o conjunto fuzzy: Verifica-se que associado ao numero de divisões da casa existe um classificador que vai de zero a um. É o Grau de Pertinência.

Sobre o resultado: Lógicamente que casas até 4 divisões crescem no conforto oferecido. A partir das cinco divisões, o conforto decresce consoante o critério estabelecido.


Exemplo 2: Representar a faixa etária


2-1. Representar o conjunto Universo da idade razoável para os seres humanos.

U = {0, 1, 2, 3, ... , 100}



2-2. Assumir que o conceito de Novo é definido pelo seguinte conjunto trapezóidal:



O conceito de velho pode também ser representado por um conjunto onde os membros estão definidos da seguinte forma:



Podemos deste modo definir o conceito de meia idade como não sendo nem novo nem velho. Isto faz-se utilizando operadores da lógica Fuzzy:



Podemos assim definir um conjunto fuzzy que represente o conceito de meia idade através da intersecção dos elementos complementares aos dois conjuntos anteriores - Novo e Velho.

Em baixo podemos observar o efeito gráfico desta intersecção de conjuntos:




Podemos pelo gráfico concluir que a intersecção dos Novos com os Velhos dá uma boa definição do conceito de Meia Idade.

Para ver mais exemplos consultar:
http://www.wolfram.com/products/applications/fuzzylogic/examples/



Infra-Estruturas Fuzzy


A resposta de um sistema Fuzzy é contínua e suave com o tempo, aprovada para o controle de sistemas continuamente variáveis, como por exemplo:

- Centrais nucleares, refinarias, processos biológicos e químicos, fornos de calor, máquina diesel, tratamento de águas e sistemas ferroviários de controlo automático.

A Lógica Fuzzy tem encontrado grandes aplicações nas seguintes áreas:

- Sistemas Especialistas; Computação com Palavras; Raciocínio Aproximado; Linguagem Natural; Controle de Processos; Robótica; Modelação de Sistemas Parcialmente Abertos; Reconhecimento de Padrões; Processos de Tomada de Decisão entre outros.


Exemplo de dispositivo Fuzzy


Conclusão

A lógica Fuzzy permite lidar de forma mais eficaz com a gestão de modelos e sistemas complexos, principalmente na gestão de ambientes incertos.
Nos últimos anos, temos vindo a assistir a uma utilização combinada entre esta lógica das variáveis difusas e as Redes Neuronais, que possuem características de adaptação e aprendizagem.
É com base nesta nova espécie de controladores neurodifusos que surgem cada vaz mais sistemas adaptativos e inteligentes que poderão, num futuro próximo, não apenas ajudar a decidir, mas também eles próprios tomarem as decisões, com base na percepção da envolvente.

Rui Almeida Santos



Fontes:
http://www.renci.org/publications/presentations/Autopilot.PerfTuning/sld027.htm
http://www.geocities.com/logicas2000/Fuzzy.htm

segunda-feira, 12 de novembro de 2007

TPCs 9 e 10 de Novembro

Boa noite, eis os TPCs para estas próximas duas semanas:

1 Definir de acordo com os standards portugueses:

           - Pequena , Média e Grande empresa (relacionar com nº de empregados e volume de negócios,por exº)

2 Dar exemplos de variáveis e regras fuzzy no nosso proj gpdw...

Leituras recomendadas: "Making Smarter Decisions" (pdf no osiris); e Simon.

Cumprimentos

sexta-feira, 9 de novembro de 2007

Arquitectura Integrada

Arquitectura Integrada

Data Warehouse

Nos últimos os anos o Data Warehouse tem vindo a oferecer às organizações uma maneira flexível e eficiente de obter as informações que os gestores necessitam nos processos de decisão e caracteriza-se como uma função de apoio à decisão.

Segundo Ralph Kimball (1998), Data Warehoouse “é o lugar onde as pessoas podem aceder aos dados”. Já Wang (1998) tem uma definição mais elaborada que diz que Data Warehoue “é o processo pelo qual os dados relacionados de vários sistemas operacionais são “fundidos”, para proporcionar uma única e integrada visão de informação do negócio que abrange todas as divisões da empresa”.

Normalmente os sistemas de informação das empresas estão literalmente “distribuídos” o que dificulta a percepção da organização como um todo. A maioria dos sistemas são instalados com uma visão local e os seus principais objectivos são resolver um problema isolado. Embora não necessariamente incorrecta, esta abordagem começa a apresentar problemas quando uma visão cruzada é necessária para o entendimento da dinâmica da situação. A integração dessas informações dispersas é um dos desafios do Data Warehouse:


A simples integração não é suficiente, porque, após a recolha dos dados devem ser analisados para determinar o seu significado. Falhas na implementação de sistemas e métodos para análise desses dados, colocam a empresa em desvantagem no mercado que está cada vez mais competitivo. Quanto mais os dados se tornam disponíveis, mais complexos se torna o processo de localizar e extrai informações realmente importantes.

Para Berson (1997), os anos 90 podiam ser recordados como a época na qual as organizações começaram as utilizar os dados com uma visão diferente do operacional.

Os sistemas operacionais, tradicionalmente servem os requsitos da missão crítica com processamentos on-line e batch. Por outro lado, o uso estratégico dos dados caracteriza-se por pesquisas on-line e ad-hoc e funções batch para o apoio à decisão.


O data Warehouse proporciona a integração dos dados na organização, sendo que desta forma não é preciso confrontar várias aplicaçções em pesquisa de uma inteligência nos negócios, basta usar ferramentas analíticas apropriadas. Outra característica importante é a sua natureza história, pois com informações históricas podem-se fazer previsões para o futuro.

A definição clássica de data Warehouse criada por Inmon (1997) é a seguinte:

“Data Warehouse é a colecção de dados orientada por assuntos, integrada, com variação no tempo e não volátil, que tem por obejctivo dar suporte aos processos de tomada de decisão”.

Integrada porque contêm dados num estado uniforme, ou sejam existe uma consistência entre nomes, unidade das variáveis, etc. A integração, umas das mais importantes características do data Warehouse, pode acontecer de várias formas: em consistentes convenções de nomes, consistentes medidas de variáveis, consistentes estruturas de dados, consistentes atributos físicos de dados, etc.

A seguinte imagem exemplifica essa integração:




Além de ser um repositório de dados “crus”, o Data Warehouse também é um repositório de dados sumários, ou agregados, em formato simplificado dos sistemas operacionais. Além disso existem diferentes níveis de idade dos dados. Basicamente, um Data Warehouse, é composto por cinco tipos de daods (Gray, 1997; Inmon &Hackathorn, 1994) que estão esquematizados na seguinte imagem:



O conceito de Corporate Information factory (CIF) – segundo Imhoff (2000), define uma arquitectura lógica cujo propósito é entregar capacidade de inteligência e gestão dos negócios dirigida por dados providos por operações de negócios. Essa “fabrica” cria uma arquitectura técnica estável e duradoura para qualquer tamanho de empresa desejando contruir sistemas de apoio à decisão estratégicos e tácticos. Basicamente a CIF consiste produtores de dados e consumidores de informação.

Imhoff (2000) diz que o fluxo de dados/informação dentro da fábrica seria o seguinte: os sistemas produtores na FIC captam e transformam os dados (aquisição de dados) dos sistemas operacionais provenientes de diversas fontes (actividade e dados externos) e guardam-nos (gestão e armazenamento) num formato utilizável (data Warehouse ou ODS) para serem utilizado pelos consumidores do negócio. Os consumidores da FIC conseguem a informação produzida (entrega de dados), manipulam-na (Data-Marts) e a utilizam-na no seu próprio ambiente (Análises Estatísticas e Análises Analíticas)

A seguinte imagem mostra bem esse fluxo e resume todo o ambiente:



Integração de DSS

A seguinte imagem mostra como um DSS pode ser intergrado, a sua arquitectura e como interage com os diversos actores:


Aquitectura Adaptada de http://www.pentaho.com/products/

Fonte:
Wikipedia e Guilberto de Come, Estudo da Implementação de Data Warehousing, Novembro 2001



Funções e Níveis da Gestão - Detalhado

Funções e Níveis da Gestão - Detalhado

Organização

Uma organização é uma entidade social conscientemente coordenada, com uma fronteira relativamente identificável, que funciona numa base relativamente contínua para atingir um objectivo comum ou um conjunto de objectivos.

Outras definições para Organização:

Organizar é atribuir a uma estrutura (partes), as funções das partes e seu relacionamento (estrutura organizacional) em uma entidade ou empresa.

Organização é um sistema que tem objectivos específicos e uma estrutura organizacional com recursos que devem ser geridos para atingir os seus objectivos.

Funções e Níveis da Gestão

Para que uma empresa atinja os objectivos, é indispensável que todos os recursos envolvidos funcionem em perfeita coordenação.

Isto é, só se consegue assegurar mediante uma actuação deliberada de prossecução dos objectivos da empresa e uma aplicação adequada dos seus recursos, com vista à satisfação dos interesses de todos os envolvidos na empresa.

É esta actividade que designamos como Gestão.

Funções da Gestão

A gestão incorpora um conjunto de funções que permitem conduzir a empresa de forma a que os seus objectivos sejam atingidos.

No seguinte quadro estão descritas as grandes funções da gestão:

Função

Descrição

Planeamento

Os gestores definem objectivos e a forma de os atingir

Organização

Os gestores definem as inter-relações entre as diversas funções da empresa

Direcção

Os gestores coordenam a execução de tudo o que foi planeado

Controlo

Os gestores controlam os resultados obtidos, comparando-os com os objectivos pretendidos, e introduzem as necessidades de correcção

Embora o processo de gestão seja uma sequência de fases, estas interagem entre si.

A retroacção entre as diferentes fases torna este processo num sistema dinâmico e em contínua adaptação â envolvente externa e à situação interna da empresa.

Níveis de Gestão

Dentro duma empresa cada pessoa tem a seu cargo um conjunto de tarefas, que poderão ser apenas de gestão, no caso de directores/administradores, ou um misto de gestão e execução, nos casos de níveis intermédios, ou apenas de execução, no caso dos empregados de nível mais baixo.

O seguinte quadro mostra os níveis típicos de uma organização:

Nível

Descrição

Nível institucional (gestão de topo)

Área onde são decididas as estratégias da empresa, a sua eventual integração em estruturas empresariais mais complexas (grupos económicos) e, de um modo geral, definidos os equilíbrios e procedimentos que asseguram a sobrevivência e o sucesso de todo o sistema empresarial

Nível de gestão (gestão intermédia)

Processo de intervenção sobre as realidades operacionais visando melhorá-las, segundo critérios de rendibilidade e de acordo com as indicações de mercado

Nível operacional

Formas de combinação de recursos humanos e materiais que a empresa utiliza para a realização das operações produtivas e comerciais. Neste sistema a racionalidade das decisões permanece limitada aos aspectos técnico

Os níveis institucional e de gestão serão os que têm a seu cargo as funções de gestão (planeamento, organização, direcção e controlo).

Dependendo da posição em que cada pessoa se encontra na empresa, o tempo dedicado a cada função será diferente.

A gestão de topo tem um maior componente de planeamento e organização.

Nos níveis mais baixos da gestão a função direcção (no sentido de liderança/coordenação) terá maior peso. De facto, quanto maior é o peso das actividades de gestão, menos é o das actividades de execução.

Distribuição de tempo/níveis de gestão



Fonte: Parcialmente baseado e adaptado de Thomas A. Mahoney H. Ferdee, and Stephen gentlemen Carrol, "The Job(s) os Management", Industrial Relations

Áreas de Actuação da Gestão

A actividade primordial da gestão de empresas que designámos de gestão institucional consiste na identificação do valor que a empresa pode gerar na economia e da melhor aplicação de recursos com sita a gerar esse valor.

Designamos esta tarefa gestão estratégica.

O desempenho da gestão estratégica arte da compreensão da relação da empresa com o seu meio ambiente. De facto, a actividade da empresa não ocorre do vazio. Cada empresa é um elo numa complexa malha de entidade: empresas, instituições públicas, pessoas, grupos de interesse. Encontramos aqui uma primeira área de actuação da gestão de empresas: identificar o lugar da empresa na complexa teia que constitui o seu meio envolvente, procurando determinar em que medida esta influência o comportamento da empresa e em que medida este comportamento influencia o meio.

Matriz Níveis/Funções


Planeamento é:

Um esforço sistemático e formal que visa estabelecer direcção para aumentar a probabilidade de ocorrência dos resultados desejados.

Um processo desenvolvido para o alcance de uma situação desejada de maneira mais eficiente, eficaz e efectiva, com a melhor concentração de esforços e utilização de recursos.

Princípios gerais:

Contribuição aos objectivos máximos da empresa.

Precedência do planeamento em relação às demais funções administrativas.

Maior penetração e abrangência, causando modificações nas pessoas, tecnologias e sistemas.

Maior eficiência, eficácia e efectividade

Algumas Razões para Planear

Constantes mudanças no meio ambiente

Necessidade de antecipar situações desejadas e evitar situações não desejadas

Necessidade de adaptação organizacional

Sequências do planeamento


O Planeamento Estratégico é o processo pelo qual:

os gestores de uma organização constroem uma visão de futuro desejável;

as estratégias para realizar esta visão são definidas;

e são estruturadas operações e projectos para implementar as estratégias.

Um processo de Planeamento Estratégico deve:

Ter a participação de todos os gestores;

Estabelecer uma primeira proposta de um plano estratégico possível de ser implementada;

Capacitar o corpo Directivo nos conceitos do planeamento estratégico;

Ser uma GRANDE oportunidade para discussão entre os gestores;

Introduzir o pensamento estratégico em todos os níveis de responsabilidade;

Ter uma liderança forte

Fases do planeamento


Recursos para o Planeamento

Pessoas comprometidas (tempo)

Moderador/Facilitador (externo)

Informações sobre o ambiente

Indicadores internos

Capacitação dos participantes

Ferramentas

Infra-estrutura

Resultados do Planeamento

Plano Estratégico

Necessidade de Recursos para implementação das estratégias

Um Bom Plano Estratégico

Possui consistência entre missão, visão, objectivos, estratégias e implementação.

Foca no que pode trazer vantagem competitiva.

É simples o suficiente para ser usado e complexo o bastante para ser útil.

É flexível para se adequar às condições reais da implementação.

Organização é:

O processo administrativo que visa à estruturação da empresa, reunindo pessoas e os equipamentos, de acordo com o planeamento efectuado.

Referente a estrutura organizacional, pode-se entendê-la recorrendo a duas teorias de organização:

1ª) Teoria organicista: as empresas são comparadas ao organismo animal. Trata-se de um estudo pelo processo analógico, por meio do qual se observa a semelhança entre coisas diferentes. Podemos dizer que o conceito de órgão envolve a palavra função, que significa a acção de cada órgão, ou no caso da empresa, os serviços executados em cada departamento ou secção.

2ª) Teoria comportamentista: as empresas constituem uma reunião de pessoas que trabalham para a produção de mercadorias e/ou serviços. As relações que se estabelecem entre as pessoas que trabalham numa empresa constituem o que se chama de estrutura organizacional.

A estrutura organizacional determina quais os cargos ou postos que devem ser ocupados pelas pessoas, bem como as funções (ou serviços) a serem desempenhadas por elas.

Quando a empresa é organizada chama-se: “Estrutura de Organização Formal”, estabelecimento da linha de autoridade (quem tem autoridade sobre os subordinados) e a linha de responsabilidade (quem tem de prestar obediência a determinada autoridade).

Direcção é:

O processo administrativo que conduz e coordena o pessoal na execução das tarefas antecipadamente planejadas.”

Dirigir uma empresa significa conseguir que os empregados executem as tarefas (ou serviços) pelas quais respondem.

“Tarefa é um trabalho que se há de concluir em determinado tempo; serviço é o exercício de funções obrigatórias, ou, então, o desempenho de qualquer trabalho.”

Controlo é:

O processo administrativo que consiste em verificar se tudo está sendo feito de acordo com o que foi planejado e as ordens dadas, bem como assinalar as faltas e os erros, a fim de repará-los e evitar sua repetição.”



In Blog, SIAD Blog - Rui Norte

quinta-feira, 8 de novembro de 2007

Sobre o tema da complexidade dos sistemas

Olá colegas,

deixo-vos aqui uma contribuição relativa ao TPC de 03-11-2007 sobre a complexidade dos sistemas.



Cumprimentos a todos,
Rui Cunha

domingo, 4 de novembro de 2007

Alteração ao Excel GigaHertz/Performance Rate (PR)


Na aula anterior, eu levantei a questão da capacidade de processamento de um processador não ser medida apelas pela sua velocidade de relógio real.

Então, a professora Trigueiros, pediu-me para alterar a folha de cálculo utilizada na aula, para a forma de cálculo de eu estava a falar.

Então a alteração é simples:

Onde se encontra “GigaHertz” é alterar para “Performance rate” ou simplesmente PR.

Ter atenção que, antigamente, um processador de 1 Gigahertz equivalia a 1000 de Performance Rate.

Para não serem necessárias mais alterações na folha de cálculo o performace rate deverá ser dividido por 1000.

Exemplos:

1 . Processador Core 2 Duo E6850, tem um performance rate de 6850 e trabalha a uma frequência de relógio de 3000 Mhz. Neste caso no Excel, no campo “performace rate” deverá ser colocado “6.85” (6850 / 1000 = 6.85).

2. Processador Athlon 64 X2 6400, tem um performance rate de 6400 e trabalha a uma frequência de relógio de 3200 MHz. Neste caso no Excel, no campo “performace rate” deverá ser colocado “6.4” (6400 /1000 = 6.4).

Toda a explicação para esta alteração pode ser consultada no Post Clock Speed vs Performance Rate (CS vs PR)

Junto um pequeno excerto do Post:

"...
O fim da corrida pelos MHz..

Entre 2001 e 2003, a Intel e a AMD fizeram poucas alterações ao designe dos seus processadores. A melhoria do desempenho era conseguida, através do aumento da velocidade de relógio, em vez de melhorarem as arquitecturas do processador.

Em meados de 2004, a Intel encontrou uma série de problemas quando continuava a aumentar a velocidade de relógio do seu processador Pentium 4 acima dos 3.4 GHZ, por causa da enorme temperatura que o seu processador com core Pesccott atingia.

O Pentium 4 a 4 GHz que tinha data marcada para o seu lançamento para o mercado, foi cancelado.

Em resposta a Intel começou a explorar novas formas de aumentar o desempenho dos seus processadores, diferentes do simples aumento da velocidade de relógio.

Começou por abandonar a arquitectura do Pentium 4 e recomeçou aproveitando a arquitectura do Pentium 3, no qual aumentou o tamanho das Caches internas e transformou-o no Pentium M.

Entretanto, a AMD já tinha introduzido no mercado o seu processador Athlon, com arquitectura 64 bits e de múltiplos processadores.

A Intel que na altura só disponha de processadores com performance inferior ao Athlon viu-se obrigada a seguir o mesmo caminho, de multiprocessador e arquitectura 64 bits.

Por causa destas mudanças de estratégia, ironicamente a Intel que sempre contestou a utilização dos “PR” comercializa actualmente os seus processadores com desempenho baseado nos resultados de “PR”, em vez da velocidade de relógio.

Alguns especialistas acreditam que o esquema de utilização de “PR””em vez dos Ghz, não é nada mais que uma estratégia de marketing, em vez de uma medida para quantificar o desempenho dos processadores.

Actualmente, os profissionais de informática e os amadores, utilizam testes exaustivos de Benchmark para determinarem o desempenho dos processadores em várias aplicações."

(SIAD Blog)


Continuação de bom trabalho,

Rui Norte

TPC - 2007-11-03

TPC 2007.11.03

a) Continuar o TPC da aula anterior, relativo aos níveis e funções da Gestão.

a.1) Definir as várias funções, os vários níveis e complementar com exemplos.

a.2) Fazer o cruzamento, em matriz, entre os níveis e as funções, bem como o tempo ocupado por cada uma das fases.

b) Na folha de cálculo utilizada na aula, que calcula o tempo necessário de processamento, criar uma nova análise que nos permita calcular o espaço ocupado (medida mínima Bytes).

c) Desenhar uma arquitectura de sistemas distribuídos, integrada, que contemple todos os sistemas necessários ao apoio à decisão.

e) Procurar respostas para as seguintes questões:

e.1) Quais as estruturas que nos permitem lidar com a complexidade dos sistemas?

e.2) Como é que uma estrutura integrada de sistemas vai lidar com a complexidade dos problemas de espaço?

e.3) Integrar significa “juntar tudo”?!

Bom trabalho,

Rui Norte