Anda di halaman 1dari 9

1) O que Classificao de Flynn?

A taxonomia de Flynn Baseia-se no fato de um computador executar uma


sequncia de instrues de dados, diferencia-se o fluxo de instrues e o fluxo de
dados. Abrange quatro classes de arquiteturas de computadores: SISD (Single
Instruction Single Data): Fluxo nico de instrues sobre um nico conjunto de dados.

2) Defina a arquitetura SISD?

A sigla SISD significa Single Instruction, Single Data, ou seja, fluxo


nico de instrues e tambm de dados. um dos tipos de arquitetura mais simples,
j que opera apenas um dado a cada instruo. Processadores que implementam esse
modelo s aplicam uma instruo por ciclo nos dados de entrada, sendo de baixo
poder de clculo.

3) Defina a arquitetura SIMD?

A sigla SIMD (Single Instruction, Multiple Data), descreve um mtodo de


operao de computadores com vrias unidades operacionais em computao
paralela. Neste modo, a mesma instruo aplicada simultaneamente a diversos
dados para produzir mais resultados. O modelo SIMD adequado para o tratamento
de conjuntos regulares de dados, como as matrizes e vetores. Esse tipo de mquina
opera aplicando uma nica instruo a um conjunto de elementos de um vetor. Sendo
uma mquina que aplique a n elementos uma determinada instruo e o vetor t
contenha os elementos a serem processados, t ter todos seus elementos calculados n
vezes mais rpido que uma mquina SISD na mesma tarefa.

4) Defina a arquitetura MISD?

Na computao, MISD (Multiple Instruction, Single Data) um tipo de


arquitetura de computao paralela, onde muitas unidades funcionais executam
operaes diferentes sobre os mesmos dados. Arquiteturas pipeline pertencem a este
tipo, apesar de que um purista poderia dizer que os dados so diferentes aps o
processamento por cada fase do pipeline. Tolerante a falhas computadores
executando as mesmas instrues redundantemente, a fim de detectar erros e mscara,
de uma forma conhecida como replicao de dados, pode-se considerar que
pertencem a este tipo. No h muitos exemplos da existncia desta arquitectura, como
MIMD e SIMD, e so muitas vezes mais adequado para dados comum paralelo
tcnicas. Especificamente, eles permitem melhor escalonamento e da utilizao de
recursos computacionais que MISD faz.

5) Defina a arquitetura MIMD?

Mquinas MIMD (Multiple Instruction Multiple Data) so arquiteturas


caracterizadas pela execuo simultnea de mltiplos fluxos de
instrues. Essa capacidade
deve-se ao fato de que so construdas a partir de vrios processadores
operando de forma
cooperativa ou concorrente, na execuo de um ou vrios aplicativos.
Essa definio deixa
margem para que vrias topologias de mquinas paralelas e de redes de
computadores
sejam enquadradas como MIMD. A diferenciao entre as diversas
topologias MIMD
feita pelo tipo de organizao da memria principal, memria cache e
rede de interconexo.
Nas prximas sees sero detalhados os principais aspectos com relao
s arquiteturas de
mquinas MIMD.

6) O que Paralelismo Implcito?

Paralelismo implcito: a aplicao paralelizada sem a interveno do


programador, que no especifica, e tambm no controla, a decomposio e o
escalonamento das tarefas e a colocao dos dados. Comumente suportado por
hardware, por linguagens de programao paralelas e por compiladores
paralelizadores;

7) O que Paralelismo Explcito?


Paralelismo explcito: o programador responsvel pela maior parte do
esforo de paralelizao (decomposio e/ou escalonamento de tarefas, comunicao,
etc.). Essa abordagem se baseia na hiptese de que o programador a pessoa que
rene as melhores condies para decidir como paralelizar sua aplicao. Usualmente
dito que esta abordagem permite obter melhores resultados.

8) O que o Modelo de Multiprocessadores UMA?

Acesso memria uniforme ( UMA ) uma memria compartilhada


arquitetura usada em computadores paralelos . Todos os processadores no modelo UMA
compartilhar a memria fsica de maneira uniforme. Em uma arquitetura UMA, tempo de
acesso a um local de memria independente de qual processador faz com que o pedido
ou que chip de memria contm os dados transferidos. Arquiteturas de computadores de
acesso memria uniforme so frequentemente contrastado com acesso memria no
uniforme arquiteturas (NUMA). Na arquitetura UMA, cada processador pode usar um
cache privado. Perifricos tambm so compartilhados de alguma forma. O modelo UMA
adequado para aplicaes de uso e compartilhamento de tempo gerais por vrios
usurios. Ele pode ser usado para acelerar a execuo de um programa nico grande no
tempo crtico aplicaes

9) O que o Modelo de Multiprocessadores NUMA?

Acesso No-uniforme a Memria (NUMA - Non-Uniform Memory Access


(em ingls)) uma arquitetura para projeto de memria principal de computadores
multiprocessados. Nesta arquitetura o acesso memria executado pelos processadores
no uniforme, o que significa que cada processador ter uma latncia diferente ao acessar
a memria principal e compartilhada do computador. Essa latncia no-uniforme vem do
fato de que cada processador ou conjunto de processadores tem os seus bancos de
memria local. E o conjunto dessas memrias locais de cada processador forma a memria
principal do computador. Quando um processador requisita memria mas no tem mais
espao em sua memria local, ele pede espao de memria ao processador vizinho,
memria remota. Neste caso, a latencia ser maior pois a distncia fsica do processador
ao banco de memria maior.

10) O que o Modelo de Multiprocessadores COMA?


Cache nica arquitetura de memria ( COMA ) uma memria de
computador organizao para uso em multiprocessadores em que as memrias locais
(normalmente DRAM ) em cada n so usados como cache. Isto est em contraste
com as memrias locais utilizando como memria principal real, como no NUMA
organizaes.

Em NUMA, cada endereo no espao de endereo global tipicamente


atribudo um n de telefonia fixa residencial. Quando os processadores acessar alguns
dados, feita uma cpia em seu cache local, mas o espao permanece alocada no n
de casa. Em vez disso, com COMA, no h nenhuma casa. Um acesso de um n
remoto pode causar que os dados a serem migrados. Em comparao com a NUMA,
isto reduz o nmero de cpias redundantes e podem permitir uma utilizao mais
eficiente dos recursos de memria. Por outro lado, levanta problemas de como
encontrar um particular de dados (no h mais um n de casa) e o que fazer se a
memria local enche-se (migrar alguns dados na memria local, ento precisa de
expulsar alguns outros dados, que no tm uma casa para onde ir)

11) O que Multithreading no chip?

a capacidade que o sistema operacional possui de executar vrias threads


simultaneamente sem que uma interfira na outra. Estas threads compartilham os recursos
do processo, mas so capazes de ser executadas de forma independente. Para possuir
processamento multithread real, os processadores precisam ser capazes de atender duas
ou mais threads ao mesmo tempo e no simular este efeito, atendendo-as uma por vez em
um curto perodo de tempo. A maior vantagem trazida com a execuo multithread
permitir que os computadores com mltiplos ncleos de processamento possam aproveitar
todo o seu potencial e operar de forma mais rpida. Apenas para ilustrar, nos
computadores sem este tipo de suporte, quando o processo principal toma muito tempo, a
aplicao inteira parece travar.
12) O que Hiperthreading?

Hyper-Threading ou hiperprocessamento uma tecnologia usada em


processadores que o faz simular dois processadores tornando o sistema mais rpido
quando se usa vrios programas ao mesmo tempo. uma tecnologia desenvolvida
pela Intel e foi primeiramente empregada no processador Pentium 4 de ncleo
Northwood, de 32 bit.
13) O que so Multicomputadores MPPs?

So multicomputadores construdos com milhares de ns (CPU e


memria) independentes conectados por uma rede proprietria de alta velocidade.

14) O que so Multicomputadores de Cluster?

Conjunto de PCs independentes (Ns), que cooperam umas com as outras


para atingir um determinado objetivo. Os ns se comunicam via uma rede comercial
para coordenar e organizar as tarefas a serem executadas.

15) Fale sobre Computao em Grade.

Computao em GRID computao em grade/grid ou ainda, grelha de


clculo (em ingls, grid computing), um modelo computacional capaz de alcanar
uma alta taxa de processamento dividindo as tarefas entre diversas mquinas,
podendo ser em rede local ou rede de longa distncia, .

16) O que Memria Compartilhada Distribuda?

memria compartilhada uma memria que pode ser acessada


simultaneamente por mltiplos programas com a inteno de prover comunicao
entre eles ou para evitar cpias redundantes. Dependendo do contexto, os programas
podem ser executados em somente um processador ou por pelo menos dois
processadores distintos. O conceito de memria compartilhada geralmente no inclui
usar a memria para a comunicao de diferentes threads dum mesmo processo.

17) O que abordagem DSM Linda?

DSM Linda: Sistemas DSM baseados em pginas como IVY e o


Treadmarks usam o hardware MMU para causar excees de acesso as pginas
faltantes.
Uma delas a Linda, que fornece processos em varias maquinas com uma
memoria compartilhada distribuda com alto grau de estruturao. Essa memoria
acessada por meio de um pequeno conjunto de operaes primitivas que podem ser
adicionadas a linguagens existentes, tal como C e FORTRAN, para formar linguagens
paralelas nesse caso, C-linda e FORTRAN-Linda. O conceito unificador fundamental
de linda um espao abstrato de tuplas, que global para o sistema inteiro e acessvel
a todos os seus processos.

18) O que abordagem de memria Compartilhada ORCA?


ORCA:Uma abordagem um pouco diferente para a memria
compartilhada no nvel de aplicao em um multicomputador usar como unidade de
compartilhamento objetos totalmente desenvolvidos, em vez de apenas tuplas. O
sistema baseado em objetos que da a iluso de memoria compartilhada denominado
Orca. Orca uma linguagem de programao tradicional, baseada em Modula 2, a
qual foram adicionadas duas novas caracterstica: objetos e a habilidade de criar
novos processos. Um objeto Orca um tipo de dados abstrato, anlogo a um objeto
em java ou a um pacote em Ada. Ele encapsula estruturas de dados internas e
mtodos escritos pelo usurio denominados operaes.

19) O que e abordagem DSM Globe?

Globe: A maioria dos sistemas DSM, Linda e Orca executam em sistemas


locais. Todavia, tambm possvel construir um sistema de memria compartilhada
no nvel de aplicao em um multicomputador que executa em mbito mundial. No
sistema Globe , um objeto pode estar localizado no espao de endereo de vrios
processos ao mesmo tempo, possivelmente em diferentes continentes. Para acessar os
dados de um objeto compartilhado, processos usurios devem passar por seus
mtodos, o que permite que diferentes objetos tenham diferentes estratgias de
implementao. O que torna Globe um tanto ambicioso sua meta de ser ampliado
para um bilho de usurios e um trilho de objetos (possivelmente mveis). Localizar
objetos, gerenci-los e administrar a ampliao crucial. O Globe faz isso com uma
estrutura geral na qual, mesmo assim, cada objeto pode ter sua prpria estratgia de
replicao, estratgia de segurana e assim por diante. Isso evita o problema do
tamanho nico presente em outros sistemas e ao mesmo tempo, conserva a facilidade
de programao oferecida pela memria compartilhada.

20) Defina MPI (Message-Passing Interface).

Message Passing Interface (MPI) um padro para comunicao de dados em


computao paralela. Existem vrias modalidades de computao paralela, e dependendo
do problema que se est tentando resolver, pode ser necessrio passar informaes entre os
vrios processadores ou nodos de um cluster, e o MPI oferece uma infraestrutura para essa
tarefa.

No padro MPI, uma aplicao constituda por um ou mais processos que se


comunicam, acionando-se funes para o envio e recebimento de mensagens entre os
processos. Inicialmente, na maioria das implementaes, um conjunto fixo de processos
criado. Porm, esses processos podem executar diferentes programas. Por isso, o padro
MPI algumas vezes referido como MPMD (multiple program multiple data). Elementos
importantes em implementaes paralelas so a comunicao de dados entre processos
paralelos e o balanceamento da carga. Dado o fato do nmero de processos no MPI ser
normalmente fixo, neste texto enfocado o mecanismo usado para comunicao de dados
entre processos. Os processos podem usar mecanismos de comunicao ponto a ponto
(operaes para enviar mensagens de um determinado processo a outro). Um grupo de
processos pode invocar operaes coletivas (collective) de comunicao para executar
operaes globais. O MPI capaz de suportar comunicao assncrona e programao
modular, atravs de mecanismos de comunicadores (communicator) que permitem ao
usurio MPI definir mdulos que encapsulem estruturas de comunicao interna.

O objetivo de MPI prover um amplo padro para escrever programas com


passagem de mensagens de forma prtica, porttil, eficiente e flexvel. MPI no um
IEEE ou um padro ISO, mas chega a ser um padro industrial para o desenvolvimento de
programas com troca de mensagens
Trabalho
Organizao
de computadores

Nome: Marcelo Augusto Grossi Pinto


1 Perodo Ciencia da computao

Anda mungkin juga menyukai