A taxonomia de Flynn Baseia-se no fato de um computador executar uma
sequncia de instrues de dados, diferencia-se o fluxo de instrues e o fluxo de dados. Abrange quatro classes de arquiteturas de computadores: SISD (Single Instruction Single Data): Fluxo nico de instrues sobre um nico conjunto de dados.
2) Defina a arquitetura SISD?
A sigla SISD significa Single Instruction, Single Data, ou seja, fluxo
nico de instrues e tambm de dados. um dos tipos de arquitetura mais simples, j que opera apenas um dado a cada instruo. Processadores que implementam esse modelo s aplicam uma instruo por ciclo nos dados de entrada, sendo de baixo poder de clculo.
3) Defina a arquitetura SIMD?
A sigla SIMD (Single Instruction, Multiple Data), descreve um mtodo de
operao de computadores com vrias unidades operacionais em computao paralela. Neste modo, a mesma instruo aplicada simultaneamente a diversos dados para produzir mais resultados. O modelo SIMD adequado para o tratamento de conjuntos regulares de dados, como as matrizes e vetores. Esse tipo de mquina opera aplicando uma nica instruo a um conjunto de elementos de um vetor. Sendo uma mquina que aplique a n elementos uma determinada instruo e o vetor t contenha os elementos a serem processados, t ter todos seus elementos calculados n vezes mais rpido que uma mquina SISD na mesma tarefa.
4) Defina a arquitetura MISD?
Na computao, MISD (Multiple Instruction, Single Data) um tipo de
arquitetura de computao paralela, onde muitas unidades funcionais executam operaes diferentes sobre os mesmos dados. Arquiteturas pipeline pertencem a este tipo, apesar de que um purista poderia dizer que os dados so diferentes aps o processamento por cada fase do pipeline. Tolerante a falhas computadores executando as mesmas instrues redundantemente, a fim de detectar erros e mscara, de uma forma conhecida como replicao de dados, pode-se considerar que pertencem a este tipo. No h muitos exemplos da existncia desta arquitectura, como MIMD e SIMD, e so muitas vezes mais adequado para dados comum paralelo tcnicas. Especificamente, eles permitem melhor escalonamento e da utilizao de recursos computacionais que MISD faz.
5) Defina a arquitetura MIMD?
Mquinas MIMD (Multiple Instruction Multiple Data) so arquiteturas
caracterizadas pela execuo simultnea de mltiplos fluxos de instrues. Essa capacidade deve-se ao fato de que so construdas a partir de vrios processadores operando de forma cooperativa ou concorrente, na execuo de um ou vrios aplicativos. Essa definio deixa margem para que vrias topologias de mquinas paralelas e de redes de computadores sejam enquadradas como MIMD. A diferenciao entre as diversas topologias MIMD feita pelo tipo de organizao da memria principal, memria cache e rede de interconexo. Nas prximas sees sero detalhados os principais aspectos com relao s arquiteturas de mquinas MIMD.
6) O que Paralelismo Implcito?
Paralelismo implcito: a aplicao paralelizada sem a interveno do
programador, que no especifica, e tambm no controla, a decomposio e o escalonamento das tarefas e a colocao dos dados. Comumente suportado por hardware, por linguagens de programao paralelas e por compiladores paralelizadores;
7) O que Paralelismo Explcito?
Paralelismo explcito: o programador responsvel pela maior parte do esforo de paralelizao (decomposio e/ou escalonamento de tarefas, comunicao, etc.). Essa abordagem se baseia na hiptese de que o programador a pessoa que rene as melhores condies para decidir como paralelizar sua aplicao. Usualmente dito que esta abordagem permite obter melhores resultados.
8) O que o Modelo de Multiprocessadores UMA?
Acesso memria uniforme ( UMA ) uma memria compartilhada
arquitetura usada em computadores paralelos . Todos os processadores no modelo UMA compartilhar a memria fsica de maneira uniforme. Em uma arquitetura UMA, tempo de acesso a um local de memria independente de qual processador faz com que o pedido ou que chip de memria contm os dados transferidos. Arquiteturas de computadores de acesso memria uniforme so frequentemente contrastado com acesso memria no uniforme arquiteturas (NUMA). Na arquitetura UMA, cada processador pode usar um cache privado. Perifricos tambm so compartilhados de alguma forma. O modelo UMA adequado para aplicaes de uso e compartilhamento de tempo gerais por vrios usurios. Ele pode ser usado para acelerar a execuo de um programa nico grande no tempo crtico aplicaes
9) O que o Modelo de Multiprocessadores NUMA?
Acesso No-uniforme a Memria (NUMA - Non-Uniform Memory Access
(em ingls)) uma arquitetura para projeto de memria principal de computadores multiprocessados. Nesta arquitetura o acesso memria executado pelos processadores no uniforme, o que significa que cada processador ter uma latncia diferente ao acessar a memria principal e compartilhada do computador. Essa latncia no-uniforme vem do fato de que cada processador ou conjunto de processadores tem os seus bancos de memria local. E o conjunto dessas memrias locais de cada processador forma a memria principal do computador. Quando um processador requisita memria mas no tem mais espao em sua memria local, ele pede espao de memria ao processador vizinho, memria remota. Neste caso, a latencia ser maior pois a distncia fsica do processador ao banco de memria maior.
10) O que o Modelo de Multiprocessadores COMA?
Cache nica arquitetura de memria ( COMA ) uma memria de computador organizao para uso em multiprocessadores em que as memrias locais (normalmente DRAM ) em cada n so usados como cache. Isto est em contraste com as memrias locais utilizando como memria principal real, como no NUMA organizaes.
Em NUMA, cada endereo no espao de endereo global tipicamente
atribudo um n de telefonia fixa residencial. Quando os processadores acessar alguns dados, feita uma cpia em seu cache local, mas o espao permanece alocada no n de casa. Em vez disso, com COMA, no h nenhuma casa. Um acesso de um n remoto pode causar que os dados a serem migrados. Em comparao com a NUMA, isto reduz o nmero de cpias redundantes e podem permitir uma utilizao mais eficiente dos recursos de memria. Por outro lado, levanta problemas de como encontrar um particular de dados (no h mais um n de casa) e o que fazer se a memria local enche-se (migrar alguns dados na memria local, ento precisa de expulsar alguns outros dados, que no tm uma casa para onde ir)
11) O que Multithreading no chip?
a capacidade que o sistema operacional possui de executar vrias threads
simultaneamente sem que uma interfira na outra. Estas threads compartilham os recursos do processo, mas so capazes de ser executadas de forma independente. Para possuir processamento multithread real, os processadores precisam ser capazes de atender duas ou mais threads ao mesmo tempo e no simular este efeito, atendendo-as uma por vez em um curto perodo de tempo. A maior vantagem trazida com a execuo multithread permitir que os computadores com mltiplos ncleos de processamento possam aproveitar todo o seu potencial e operar de forma mais rpida. Apenas para ilustrar, nos computadores sem este tipo de suporte, quando o processo principal toma muito tempo, a aplicao inteira parece travar. 12) O que Hiperthreading?
Hyper-Threading ou hiperprocessamento uma tecnologia usada em
processadores que o faz simular dois processadores tornando o sistema mais rpido quando se usa vrios programas ao mesmo tempo. uma tecnologia desenvolvida pela Intel e foi primeiramente empregada no processador Pentium 4 de ncleo Northwood, de 32 bit. 13) O que so Multicomputadores MPPs?
So multicomputadores construdos com milhares de ns (CPU e
memria) independentes conectados por uma rede proprietria de alta velocidade.
14) O que so Multicomputadores de Cluster?
Conjunto de PCs independentes (Ns), que cooperam umas com as outras
para atingir um determinado objetivo. Os ns se comunicam via uma rede comercial para coordenar e organizar as tarefas a serem executadas.
15) Fale sobre Computao em Grade.
Computao em GRID computao em grade/grid ou ainda, grelha de
clculo (em ingls, grid computing), um modelo computacional capaz de alcanar uma alta taxa de processamento dividindo as tarefas entre diversas mquinas, podendo ser em rede local ou rede de longa distncia, .
16) O que Memria Compartilhada Distribuda?
memria compartilhada uma memria que pode ser acessada
simultaneamente por mltiplos programas com a inteno de prover comunicao entre eles ou para evitar cpias redundantes. Dependendo do contexto, os programas podem ser executados em somente um processador ou por pelo menos dois processadores distintos. O conceito de memria compartilhada geralmente no inclui usar a memria para a comunicao de diferentes threads dum mesmo processo.
17) O que abordagem DSM Linda?
DSM Linda: Sistemas DSM baseados em pginas como IVY e o
Treadmarks usam o hardware MMU para causar excees de acesso as pginas faltantes. Uma delas a Linda, que fornece processos em varias maquinas com uma memoria compartilhada distribuda com alto grau de estruturao. Essa memoria acessada por meio de um pequeno conjunto de operaes primitivas que podem ser adicionadas a linguagens existentes, tal como C e FORTRAN, para formar linguagens paralelas nesse caso, C-linda e FORTRAN-Linda. O conceito unificador fundamental de linda um espao abstrato de tuplas, que global para o sistema inteiro e acessvel a todos os seus processos.
18) O que abordagem de memria Compartilhada ORCA?
ORCA:Uma abordagem um pouco diferente para a memria compartilhada no nvel de aplicao em um multicomputador usar como unidade de compartilhamento objetos totalmente desenvolvidos, em vez de apenas tuplas. O sistema baseado em objetos que da a iluso de memoria compartilhada denominado Orca. Orca uma linguagem de programao tradicional, baseada em Modula 2, a qual foram adicionadas duas novas caracterstica: objetos e a habilidade de criar novos processos. Um objeto Orca um tipo de dados abstrato, anlogo a um objeto em java ou a um pacote em Ada. Ele encapsula estruturas de dados internas e mtodos escritos pelo usurio denominados operaes.
19) O que e abordagem DSM Globe?
Globe: A maioria dos sistemas DSM, Linda e Orca executam em sistemas
locais. Todavia, tambm possvel construir um sistema de memria compartilhada no nvel de aplicao em um multicomputador que executa em mbito mundial. No sistema Globe , um objeto pode estar localizado no espao de endereo de vrios processos ao mesmo tempo, possivelmente em diferentes continentes. Para acessar os dados de um objeto compartilhado, processos usurios devem passar por seus mtodos, o que permite que diferentes objetos tenham diferentes estratgias de implementao. O que torna Globe um tanto ambicioso sua meta de ser ampliado para um bilho de usurios e um trilho de objetos (possivelmente mveis). Localizar objetos, gerenci-los e administrar a ampliao crucial. O Globe faz isso com uma estrutura geral na qual, mesmo assim, cada objeto pode ter sua prpria estratgia de replicao, estratgia de segurana e assim por diante. Isso evita o problema do tamanho nico presente em outros sistemas e ao mesmo tempo, conserva a facilidade de programao oferecida pela memria compartilhada.
20) Defina MPI (Message-Passing Interface).
Message Passing Interface (MPI) um padro para comunicao de dados em
computao paralela. Existem vrias modalidades de computao paralela, e dependendo do problema que se est tentando resolver, pode ser necessrio passar informaes entre os vrios processadores ou nodos de um cluster, e o MPI oferece uma infraestrutura para essa tarefa.
No padro MPI, uma aplicao constituda por um ou mais processos que se
comunicam, acionando-se funes para o envio e recebimento de mensagens entre os processos. Inicialmente, na maioria das implementaes, um conjunto fixo de processos criado. Porm, esses processos podem executar diferentes programas. Por isso, o padro MPI algumas vezes referido como MPMD (multiple program multiple data). Elementos importantes em implementaes paralelas so a comunicao de dados entre processos paralelos e o balanceamento da carga. Dado o fato do nmero de processos no MPI ser normalmente fixo, neste texto enfocado o mecanismo usado para comunicao de dados entre processos. Os processos podem usar mecanismos de comunicao ponto a ponto (operaes para enviar mensagens de um determinado processo a outro). Um grupo de processos pode invocar operaes coletivas (collective) de comunicao para executar operaes globais. O MPI capaz de suportar comunicao assncrona e programao modular, atravs de mecanismos de comunicadores (communicator) que permitem ao usurio MPI definir mdulos que encapsulem estruturas de comunicao interna.
O objetivo de MPI prover um amplo padro para escrever programas com
passagem de mensagens de forma prtica, porttil, eficiente e flexvel. MPI no um IEEE ou um padro ISO, mas chega a ser um padro industrial para o desenvolvimento de programas com troca de mensagens Trabalho Organizao de computadores