Conceitos de Sistemas Operacionais Estrutura de Sistemas

Sistema Operacional é um conjunto de ferramentas necessárias para que um computador possa ser utilizado de forma adequada, pois consiste de intermediá...

105 downloads 906 Views 171KB Size
Conceitos de Sistemas Operacionais Estrutura de Sistemas Operacionais Gerência de Processos Gerência de Memória

Romildo Martins Bezerra CEFET/BA Sistemas Operacionais

Arquitetura Conceitual de um Computador ................................................... 2 Processadores ................................................................................... 2 Memória Principal............................................................................... 4 Memória Cache .................................................................................. 4 Memória Secundária ............................................................................ 5 Dispositivos de Entrada e Saída ............................................................... 6 Apresentando os componentes dentro de um computador .................................. 6 Conceitos de Sistemas Operacionais ............................................................ 6 Arquitetura de um SO .......................................................................... 7 Arquitetura Interna de um SO................................................................. 7 Processos ......................................................................................... 8 Memória .......................................................................................... 8 Arquivos .......................................................................................... 8 Multiprogramação............................................................................... 9 Estruturas dos Sistemas Operacionais .......................................................... 9 Sistemas monolíticos ........................................................................... 9 Sistemas em camadas .......................................................................... 9 Máquina Virtual ................................................................................. 9 Modelo cliente/servidor ....................................................................... 9 Gerência de Processos ............................................................................ 9 Estados do processo ........................................................................... 10 Comunicação interprocessos ................................................................. 10 Alternativas para a exclusão mútua......................................................... 11 Escalonamento ................................................................................. 11 Gerência de Memória ............................................................................ 12 Sistemas Operacionais Atuais ................................................................... 13 Linux ............................................................................................. 13 Windows ......................................................................................... 13 Amoeba .......................................................................................... 13 Minix ............................................................................................. 13 Pesquise............................................................................................ 14 Temas para trabalhos ............................................................................ 14 Bibliografia ........................................................................................ 14

As notas de aulas são referências para estudo. Portanto não devem ser adotadas como material didático absoluto! Versão 0.1 – 30/08/2008

Romildo Martins Bezerra

Antes de iniciarmos os estudos de Sistemas operacionais é necessário apresentar uma introdução do funcionamento básico de um computador e seus respectivos componentes.

Arquitetura Conceitual de um Computador Os primeiros passos para que a arquitetura dos computadores fosse similar à que conhecemos hoje foram dados pelo pesquisador Von Neumann. Especialista em ciências exatas e o matemático mais eminente do mundo na época, Neumann projetou o IAS, computador onde os dados eram representados de forma digital, com programação mais rápida e flexível, visto que no seu projeto, programas e dados eram inseridos de forma binária na memória. Esse projeto pioneiro com o conceito de “programa armazenado” transformou o IAS na famosa máquina de Von Neummann. A concepção é utilizada até hoje nos computadores e é composta basicamente de 3 componentes (figura 01): • • •

CPU (unidade central de processamento) composto de uma unidade de controle (UC), unidade lógico-aritmética (ULA) e registradores; Memória Principal, onde os programas estão armazenados (veremos detalhes a seguir); Dispositivos de E/S, responsáveis em transferir dados de dentrofora do computador

Pontos Importantes: • • • •

No projeto, o computador só trabalhava com números inteiros. Neumann acreditava que qualquer matemático poderia tratar ponto flutuante Utilização do conceito de programas armazenados Execução seqüencial de instruções Funcionamento busca/decodificação/execução

Atualmente os computadores (a maior parte deles) utilizam uma arquitetura composta dos seguintes componentes vistos na figura 01. Memória Principal endereço

dados/instruções CPU

Registradores

ULA

PC

Unidade de Controle

Dispositivos E/S

Figura 01 – Modelo Conceitual dos computadores atuais, baseados no IAS de Von Neumann Processadores Correspondem ao cérebro do computador, pois é o responsável em executar todas as tarefas referentes à busca/execução dos programas e dados. Para modularizar seu funcionamento, será apresentado o modelo didático com as seguintes componentes: •

2

ULA (Unidade Lógico-Aritmética) – realiza um conjunto de operações aritméticas e lógicas necessárias à execução das instruções

Romildo Martins Bezerra



UC (Unidade de Controle) – busca de instruções da memória, de acordo com a necessidade da instrução a ser processada.



Registradores – Pequenos espaços de memória que o processador trabalha executando as instruções. Geralmente possuem o mesmo tamanho e tem velocidade muito alta. Destacam-se: o PC – Contador de Programa, cujo nome não reflete sua função, que é indicar a próxima instrução a ser executada na memória. o IR – Registrador de instruções, que indica a próxima instrução a ser executada.



Memória Cache – Atualmente para melhorar o desempenho, os processadores atuais possuem uma memória de altíssima velocidade (quando comparada a memória RAM ou disco rígido) para arquivar os dados de maior utilização, evitando acessos constantes à memória. Veremos mais detalhes no decorrer desta apostila.

Conforme vimos anteriormente, a seqüência de funcionamento segue a proposta do modelo de Von Neumann, busca-decodificação-execução. O processo de busca da instrução (fetch) transfere a instrução da posição da memória (indicada pelo registrador PC) para a CPU. A decodificação é responsabilidade da unidade de controle, que após decodificação gerencia os passos para execução a ser feita pela ALU. Unidade de decodificação

Unidade de busca

Unidade de execução

Figura 02 – Estágios do funcionamento dos computadores De forma detalhada, a execução de programas num processador utiliza a seqüência de passos buca-decodica-executa, da seguinte forma: 1. Busca a próxima instrução da memória para o registrador de instrução 2. Atualiza o contador de programa para que ele aponte para a instrução seguinte 3. Determina o tipo de instrução 4. Se a instrução utiliza dados na memória, determina localização 5. Busca os dados, se houver algum, para os registradores internos da CPU 6. Executa a instrução 7. Armazena os dados em locais apropriados 8. Volta para o passo 1 Vamos analisar novamente a figura 02 e imaginemos que um computador vai executar diferentes operações simples (soma, por exemplo). Seria interessante se ele pudesse fazer parte das instruções em paralelo de forma a otimizar sua utilização, sendo pelos menos duas tarefas executadas no mesmo tempo. Isso pode ser feito de duas formas: •

Paralelismo a nível de instruções – A divisão das instruções em partes menores sendo essas executadas em um hardware específico. (lembrem-se do exemplo da soma dado em sala!) [ E1 ] Unidade de busca de instrução

[ E2 ] Unidade de decodificação de instrução

[ E3 ] Unidade de busca de operando

[ E4 ] Unidade de execução de instrução

[ E5 ] Unidade de escrita

Figura 03 – Computador clássico de cinco estágios

3

Romildo Martins Bezerra

E1

P1

E2

P2

P3

P4

P5

P6

P7

P8

P1

P2

P3

P4

P5

P6

P7

P1

P2

P3

P4

P5

P6

P1

P2

P3

P4

P5

P1

P2

P3

P4

5

6

7

8

E3 E4 E5

1

tempo

2

3

4

Figura 04 – Exemplo de paralelismo a nível de instruções em cinco estágios •

Paralelismo a nível de processador – A idéia é projetar computadores com mais de um processador que podem estar organizados de forma matricial, vetorial, compartilhando barramento com memória compartilhada ou não. Este estudo não corresponde ao objetivo desta disciplina.

Memória Principal A memória principal é uma das partes essenciais para o funcionamento do computador, uma vez que é nela que os programas e dados são executados. O que se esperar da memória? Tamanho infinito, ultra-rápida (não atrase o processador) e barata (afinal ninguém quer gastar dinheiro!). É possível conciliar isso? Isso será discutido mais tarde. A memória é organizada através de células, unidades elementares de memória, que compõem segmentos (pedaços alocados por um programa que podem conter mais de uma célula). Vamos imaginar uma memória de 1Megabyte (220 bytes = 1024*1024) com células de 32 bits (22 bytes), retemos então: Total de Células= Total de memória /Tamanho da célula = 220 bytes/22 bytes = 218 células Ou seja teríamos 218 células a serem endereçadas. Vamos supor agora que o sistema operacional precisa de 26 bytes para executar uma determinada instrução (IX) de um programa em Pascal (compilador de alto nível). O sistema operacional ficará responsável em alocar segmentos de memória (contínuos ou não) para que esta informação possa ser trabalhada pelo processador. Vazio

IY

IX

IX

IX

IX

IX

IX

IX

Vazio

199

200

201

202

203

204

205

206

207

208

Figura 05 – Dados da instrução X (IX) alocados continuamente na memória Que problemas vocês enxergam que o SO terá com este particionamento da memória? • Controle da fragmentação • Falta de espaços • Movimentação constante Memória Cache Devido a uma diferença história entre processadores e memórias, o processador acaba esperando (apenas por definição!) ciclos de clock até que a memória entregue (aloque) sua requisição. Algumas técnicas para melhorar esta solução podem ser utilizadas, destacamos aqui a utilização de memórias cache. Os projetistas de HW construíram uma memória mais rápida capaz de operar na velocidade dos processadores, mas devido ao seu custo elevado (fruto de aumento do tamanho do processador) é necessário restringir o tamanho da memória cache. Esta apresentação segue o conceito de hierarquia de memória, onde quanto mais rápido a memória, menor será seu tamanho (devido ao custo de fabricação). 4

Romildo Martins Bezerra

cache

preço

principal discos rígidos

velocidade

unidades de fita

Figura 06 – Conceito de Hierarquia de memória O problema agora é que ficamos com dois mundos: • Memória ultra-rápida e pequena (muitas trocas ocorreriam) • Memória mais lenta e bem maior Para se ter uma idéia, diversos processadores atuais trabalham com velocidades superiores a 3.0GHz (3 bilhões de ciclos por segundo) e possui cache interna (L1) de 512Kbytes, enquanto a memória RAM trabalha a 333Mhz e tem tamanho de 256MB, sendo assim 512 vezes maior e 9 vezes mais lenta. Como não é possível trabalhar com apenas uma delas, a proposta é a seguinte: Processador

Memória RAM

Cache

256MB

Figura 07 – Memória Cache alocada no processador Outra proposta seria colocá-la na placa-mãe (Chamado de cache L2). Esta memória ultra-rápida, cache, deve ser sempre as informações mais requisitadas pelo processador, e este terá que sempre consultar a cache antes de perguntar memória principal. Mas como “adivinhar” que parte da memória será utilizada? Como calcular se o tempo médio de acesso com a cache tornará o sistema mais eficiente? Cálculos matemáticos e algoritmos complexos são desenvolvidos no projeto de cada arquitetura. Para os mais interessados pesquisem o principio da localidade, base teórica para o funcionamento de sistemas com utilização intensiva de cache. Memória Secundária “Por maior que seja a memória principal, ela será sempre pequena.” Tanenbaum em Organização Estruturada de Computadores, página 40. Apesar de a afirmação parecer (e é!) forte demais, não é possível enxergar uma estrutura computacional moderna sem a utilização de memória secundária. Do mesmo modo que a cahe é muito mais rápida que a memória principal, essa é muito mais rápida que a memória secundária. Aqui serão explicados apenas os discos magnéticos, vistos que o foco é apresentar uma introdução para sistemas operacionais. A composição básica de um disco magnético é vista abaixo.

Figura 08 – Esquema Básico do disco

5

Romildo Martins Bezerra

Nota-se que esta composição mecânica dos discos não pode superar, em velocidade, o método digital dos semicondutores utilizados na memória RAM e memória cache. Dispositivos de Entrada e Saída Antes de serem tratados os dispositivos de E/S é importante salientar que a transferência de dados entre processador, memória principal, memória secundária (discos rígidos, flexíveis e óticos) é feita através dos barramentos. Cada dispositivo de entrada e saída é composto de uma controladora e do dispositivo propriamente dito. Esta controladora dá acesso ao barramento do computador sem que haja uma intervenção o processador executando um acesso direto à memória (DMA). E quando esta transferência de dados é transmitida, a controladora força uma interrupção, fazendo com qu o processador suspenda o processo em execução a fim de rodar um procedimento para verificar possíveis erros de transferência de dados, este procedimento é denominado rotina do tratamento de interrupção. Já que o barramento é acessado por todos os dispositivos, o que aconteceria se dois ou mais dispositivos brigarem pelo acesso ao barramento? Nos projetos dos computadores atuais está presente um dispositivo que executa esta seleção chamada de arbitro do barramento. A prioridade geralmente é dos discos magnéticos, uma vez que as paradas sucessivas podem ocasionar perda de dados. Atualmente estas controladoras estão presentes dentro da placa-mãe

Processador

Memória

HD

Monitor

Teclado

Controladora HD

Controladora Vídeo

Controladora

Figura 09 – Modelo conceitual detalhado

Apresentando os componentes dentro de um computador Esta aula não terá apostila. Corresponderá a uma aula prática com apresentação de hardware.

Conceitos de Sistemas Operacionais O sistema computacional moderno é algo complexo devido a quantidade de dispositivos envolvidos. Desenvolver programas que mantenham o controle destes componentes de forma otimizada impactaria na lentidão para novos softwares. Daí surge o sistema operacional, cujo trabalho é gerenciar esses componentes e fornecer aos programas de usuários uma interface simples de acesso ao hardware. Sistema Operacional é um conjunto de ferramentas necessárias para que um computador possa ser utilizado de forma adequada, pois consiste de intermediário entre o aplicativo e a camada física do hardware. Este conjunto é constituído por um Kernel, ou núcleo, e um conjunto de software básicos, que executam operações simples, mas que juntos fazem uma grande diferença. O sistema operacional é uma camada de software colocada entre o hardware e software do computador, com o objetivo de facilitar as atividades dos desenvolvedores e usuários de software, uma vez que não precisam fazer acesso direto ao dispositivo, fornecendo uma interface mais amigável e intuitiva. Tipos de serviços: • Acesso aos periféricos • Utilização simples de recursos pelo usuário • Manipulação de dados (arquivos e diretórios) • Controle de recursos compartilhados

6

Software Sistema operacional Hardware

Figura 10 – Localização lógica do SO

Romildo Martins Bezerra

Para isso, ele deve ser responsável pela: • •

• • •

Gerência do processador, também conhecida como gerência de processos, seu objetivo visa distribuir de forma justa o processamento evitando o monopólio do processador e respeitando a prioridade dos usuários e aplicações. Gerência de memória, objetiva fornecer um espaço isolado de memória para cada processo de forma que ele “se sinta” único na memória. São necessários recursos (memória virtual paginação e segmentação) para que este objetivo seja cumprido de forma eficiente e atenda todos os processos ativos. Gerência de dispositivos, objetiva garantir o acesso aos dispositivos de forma mais fácil possível (drivers) aos usuários, criando modelos que generalizem a utilização dos dispositivos (lembrar do conceito de bloco no HD). Gerência de arquivos, uma implementação específica da gerencia de dispositivos, trabalhando apenas com o processo de armazenamento e acesso aos dados, atualmente através de arquivos e diretórios. Gerencia de proteção, definir o acesso harmônico em sistemas de vários usuários com compartilhamento de recursos, como por exemplo, pastas compartilhadas em rede.

Os sistemas operacionais vêm passando por um processo gradual de operação. A evolução dos SO é diretamente ligada a evolução dos computadores e passou por algumas gerações: 1ª Geração 2ª Geração 3ª Geração 4ª Geração

– Válvulas e Painéis de Programação – Transistores e Sistemas de lote – CIs e MultiProgramação – Computadores Pessoais (Atual)

Arquitetura de um SO Esta arquitetura é simples e intuitiva de ser entendida. O kernel presta serviço aos programas de usuários e recebe serviços do microkernel. A separação entre estes dois níveis diz respeito a separação dos serviços básicos oferecidos.

Chamadas de Sistema

Programas Kernel Microkernel

Dados Solicitados

Hardware

Figura 11 – Arquitetura de um SO Um sistema operacional pode oferecer serviços também na camda de utilitários (programas de usuário) confundindo muitas vezes o usuário, uma vez que tais serviços são distribuídos pelo próprio forncedor do software. O Windows Explorer e o task manager manipulador de arquivos e diretórios e gerenciador de tarefas, respectivamente – são exemplos no Microsoft Windows. Já o comando Kernel top e time são bons exemplos no Linux. Talvez o mais importante eles seja o interpretador de comandos, uma vez que o usuário começa sua seção de trabalhos (sem interface visual!). Figura 12 – Interpretador de comandos C:\ dir /s

Interpretador de Comandos

Arquitetura Interna de um SO A eficiência do SO é decorrente das facilidades impostas e multiprogramação (veremos a seguir), que por sua vez só ocorrem pois ele está organizado internamente, viabilizando dois tipos de eventos:

7

Romildo Martins Bezerra



Chamada de sistema – é uma solicitação de recurso por parte de um programa que está sendo executado. Diversas preocupações associadas podem ser listadas, como por exemplo: permissão do usuário a este recurso.



Interrupção de periférico – o processador para o processador que está executando para atender a um retorno de um periférico (controladora dele) informando que o recurso está disponível.

Detalhes da arquitetura interna do sistema operacional serão vistos no próximos capítulos. Processos É basicamente um programa em execução sendo constituído de um código executável, dados referentes ao código, da pilha de execução, do valor do PC, do valor do apontador de pilha, dos valores dos demais registradores do hardware e outras informações. Associado a um processo está seu espaço de endereçamento, uma lista de posições de memória que contém todas as informações do processo. Como em um sistema operacional vários processos requerem a CPU, é necessário compartilhar o tempo de acesso entre eles de forma que quando um processo seja parado, todas as suas informações (se estado atual) seja guardado. Isto porque quando o mesmo for reiniciado deve continuar do ponto em que parou. Para isso os sistemas operacionais utilizam uma tabela chamada tabela d processos que consiste em um vetor ou lista encadeada de estruturas para cada processo existente. Um processo pode criar mais processos (processos filhos) que podem criar também seus processos filhos. Estes processos se organizam como uma estrutura em arvore conforme vista a seguir. A necessidade de comunicação entre processos para sincronizar suas atividades é chama de comunicação interprocessos. A B D

E

C F

G

Figura 13 – Arvore de processos

Quando estão em operação, dois ou mais processos podem entrar em uma situação da qual mão conseguem sair, esta situação é chamada de deadlock. Memória Todo computador tem uma memória principal para guardar o estado dos programas em execução. Em sistemas operacionais muito simples, somente um programa por vez ocupa a memória. Sistemas operacionais modernos permitem que múltiplos programas residam na memória principal ao mesmo tempo. Para que não haja conflito com outros programas ou com o sistema operacional é necessário construir um mecanismo de proteção a ser controlado pelo sistema operacional. Outro ponto importante é como gerenciar e distribuir os espaços de endereçamento dos processos guardados em memória principal? O que pode ser feito para que um processo que requer mais memória que o computador dispõe? Sistemas operacionais modernos utilizam memória virtual. Arquivos Como uma das funções do sistema operacional é deixar transparente o aceso aos recursos (entre eles o disco!) serão necessárias criação de chamadas de sistema para facilitar o acesso aos arquivos gravados no disco. Para poder guardar organizadamente os arquivos, vários sistemas operacionais utilizam o conceito de diretório. Cada arquivo dentro desta hierarquia de diretórios pode se acessado fornecendo-se o caminho (path name) a partir do topo da hierarquia, chamado de diretório raiz.

8

Romildo Martins Bezerra

Multiprogramação Como os programas que estão em execução provavelmente precisarão de acesso aos dispositivos de E/S e acesso a disco, neste momento o processador “ficaria ocioso” (o que não é verdade, pois o mouse se mexe e você o vê no monitor!). Nota-se uma necessidade de otimizar a eficiência de utilização do computador. Uma solução seria manter mais de um programa (ou parte dele) na memória principal e escalonar a utilização do processador dividindo o tempo de utilização de forma a não deixá-lo ocioso e atendendo todos os processos. Com a multiprogramação, a execução dos processos passa por diversas fases, alternando a utilização do processador de forma que reduza o tempo ocioso do processador e o distribua de forma justa entre processos. Além disso, muitos processos (quase todos) não precisam de toda memória virtual, logo se um processo ficasse exclusivo na memória, isto acarretaria um desperdício.

Estruturas dos Sistemas Operacionais Sistemas monolíticos Neste sistema não existe organização visível. É escrito como um conjunto de procedimentos que se comunicam entre si. É a estrutura mais comum. Essa organização sugere uma estrutura básica para o sistema operacional: 1. Um programa principal que invoca o procedimento do serviço requisitado 2. Um conjunto d procedimentos de serviço que executam chamadas ao sistema 3. Um conjunto de procedimentos utilitários que auxiliam os procedimentos de serviço Sistemas em camadas Criação de uma hierarquia de níveis, onde cada um é construído exatamente sobre o nível abaixo. Ex: THE – Dijkstra – 6 níveis MULTICS – Kernel circular Máquina Virtual Uma cópia exata do hardware é feita para criar um ambiente único para execução do programa. Pode-se rodar mais de uma MV em um mesmo hardware ou criar n MV diferentes para hardware diferentes mantendo acima dela uma única interface. Modelo cliente/servidor A comunicação entre os módulos do kernel do SO é feita através de solicitações de serviços através de mensagens de processos clientes a processos servidores (memória, arquivo, terminal...). A divisão do sistema operacional em várias partes facilita o desenvolvimento e evolução de um sistema operacional, além de permitir que uma falha em um servidor – por exemplo, o de arquivos – não afete toda a máquina. Este modelo oferece fácil adaptabilidade a sistemas distribuídos.

Gerência de Processos Um processo é um programa em execução incluindo os valores armazenados nos registradores e o valor das variáveis. As máquinas atuais utilizam o Conceito de pseudoparalelismo – paralelismo aparente – forma de chavear o processador em diferentes processos (programas) criando a alusão de simultaneidade de execução. Para tal é necessário o rápido chaveamento do processador entre diversos programas em execução, chamado de Multiprogramação. Como o processador está sendo chaveado entre diversos processos pode-se observar que a velocidade de execução não é constante, por isso a programação de processos não pode ter restrições de tempo.

9

Romildo Martins Bezerra

Estados do processo Embora cada processo seja uma entidade independente, muitas vezes os processos precisam interagir com os outros. Para gerenciar esta interação e o escalonamento dos processos é necessário definir os possíveis estados que um processo pode ficar: 1. Em execução, realmente utilizando a CPU 2. Pronto, capaz de executar a qualquer instante, mas não tem CPU 3. Bloqueado, incapaz de executar

Executando

Destruição 1

Criação 3

4

Bloqueado

2 Pronto

Figura 14 – Estados dos processos 1. Processo bloqueado aguardando informações 2. Escalonador escolhe outro processo 3. Escalonador entrega processador 4. Entrada de dados concluída Nota-se que o escalonador está num nível mais baixo do sistema operacional que os processos para que possa fazer este controle sobre eles. 1

2

...

n-1

n

Escalonador Figura 15 – Escalonador e os processos Comunicação interprocessos Como visto acima, freqüentemente os processos precisam se comunicar com outros processos, preferencialmente de maneira estrutura e sem interrupções (nem sempre é possível). Neste tópico devemos nos preocupar com 3 pontos: a troca de informações entre processos; a garantia de que um processo não invada o espaço físico do outro; e a garantia de que um processo não altere os dados que estão sendo trabalhados por outro (que deve estar no estado pronto neste momento). O Sistema Operacional deve então evitar que quando dois ou mais processos que acessam dados compartilhados o resultado destes processos não dependa do escalonamento, ou seja, um processo não interferiu no outro. Isto é chamado de condição de corrida. Uma forma de se isolar este problema é a definição e tratamento das regiões que possam levar à condições de corrida, tais regiões são chamadas de regiões críticas. Para tal 4 regras foram definidas: 1. 2. 3. 4.

10 

Nunca 2 processos podem entrar ao mesmo tempo A velocidade ou quantidade de CPUs não interfere Nenhum processo executando fora da região crítica pode bloquear outros processos Nenhum processo deve esperar eternamente para entrar numa região crítica

Romildo Martins Bezerra

Alternativas para a exclusão mútua Existem várias alternativas para tratar este problema como: inibição das interrupções, utilização de variáveis de travamento e alternância obrigatória. Porém a solução em software de maior sucesso é o algoritmo de Peterson que combina a utilização de variáveis de travamento com a alternância obrigatória. Existe também a solução em hardware chamada de instrução TSL. Porém ambas as soluções apresentam o problema de prioridade invertida, ou seja, um processo de menor prioridade nunca terá acesso a CPU, logo sua prioridade deveria ser maior. Estas soluções também não tratam o problema do Produtor-consumidor (buffer compartilhado) O problema do produtor e consumidor é resolvido através de semáforos (contadores de eventos) e mutex (variável de dois estados). A utilização de monitores (unidade de sincronização de alto nível) para estas soluções facilita a comunicação interprocessos. Escalonamento Quando um computador é multiprogramado, ele muitas vezes possui diversos processos que competem pela CPU, surgindo assim a necessidade de alguma entidade para escalonar a CPU entre os processos, que é chamada de escalonador. Um escalonador deve possuir um algoritmo de escalonamento que se preocupe com 5 regras: 1. Justiça – Todos processos devem ter acesso a CPU 2. Eficiência – A meta do escalonador é chegar mais perto dos 100% de utilização da CPU 3. Minimizar o Tempo de Resposta 4. Turnaround – Minimiza os usuários batch 5. Throughput – Maximizar o número de jobs processados

Algoritmos de Escalonamento Round Robin

• • •

Quantum constante Sem prioridade Polêmica: Quantum x troca de contexto

Com Prioridade



Cada processo possui uma prioridade e o de maior prioridade executa primeiro Para evitar que os processos de maior prioridade tomem conta do processador, a prioridade é decrementada



Menor Job Primeiro

• • •

Só conduz ao resultado ótimo quando todos os jobs tiverem prontos ao mesmo tempo Difícil estimar o tempo Utilização de Média ponderada (aging)

Garantido

• •

Estimar (prometer) a um processo o tempo de sua execução e cumprir Necessário conhecimento dos processos executando e a serem executados

Loteria

• •

Distribuição de bilhetes que dão acesso à CPU. Lembra o escalonamento com prioridade, mas bilhetes são trocados entre processos

Filas múltiplas

• •

Criação de classes de Prioridades alocadas em deferentes filas Objetiva a redução de tempo de swapping

11 

Romildo Martins Bezerra

Para melhor eficiência dos escalonadores, recomenda-se separa o mecanismo da política de escalonamento, visto que um processo pai pode administrar melhor seus processos filhos do que o escalonador do SO.

Gerência de Memória Alguns sistemas operacionais mais simples não trabalham com multiprogramação, ou seja, alocam um processo na memória o executam até que seja terminado. Porém a troca de processos entre memória e disco para sistemas multiprogramados é uma realidade. Para este caso, em que a soma dos espaços de memória requeridos por todos os processos é maior que a memória primária, é necessário levar os dados não utilizados para o disco, sendo necessário um controle através de mapa de bits. A utilização de memorial virtual é recomendada, mas o algoritmo de substituição de páginas deve ser eficiente para garantir o desempenho do processo. Recomenda-se o uso do algoritmo do envelhecimento (aging) e o WSClock. Um resumo dos algoritmos de substituição de páginas segue abaixo: Ótimo



Não implementável, mas serve como padrão de desempenho

NUR (não usada recentemente) FIFO



Muito rudimentar



Pode descartar páginas importantes

FIFO com segunda chance



Melhoria do FIFO

Relógio



Realista

MRU (menos recentemente usada) NFU (não frequentemente usada) Envelhecimento (aging)



Excelente, mas difícil implementação



Método similar ao MRU, mas rudimentar



Ótimo desempenho e se aproxima do MRU

Conjunto de trabalho



Implementação cara

WSCLOCK



Algoritmo bom e eficiente

Apenas a escolha do algoritmo não é o suficiente, preocupação com o tamanho da página e a política de alocação são fundamentais. Como sistema de memória virtual discutido até então é unidimensional, com o crescimento da massa de dados trabalhada a paginação deve aumentar ou a informação do executável e dos dados ficarão distribuídas na memória principal. Surge a necessidade de segmentar o espaço da memória para a tabela de símbolos, o código fonte e pilha de chamadas do sistema. A utilização da segmentação ajuda no tratamento das estruturas de dados dos programas e proteção diferenciada para as informações na memória.

12 

Romildo Martins Bezerra

Sistemas Operacionais Atuais Linux GNU/Linux ou simplesmente Linux, é um popular sistema operacional livre, composto pelo núcleo (kernel) Linux e pelas bibliotecas e ferramentas do projeto GNU. É um sistema do tipo Unix que implementa o padrão POSIX. O Linux hoje funciona em dezenas de plataformas, desde mainframes até um relógio de pulso, passando por várias arquiteturas: Intel, StrongARM, PowerPC, Alpha etc., com grande penetração também em dispositivos embarcados, como handheld, PVR, vídeo-jogos e centrais de entretenimento etc. O Linux tem um kernel híbrido monolítico. Drivers de dispositivo e extensões do kernel tipicamente rodam com acesso total ao hardware, embora alguns rodem em espaço de usuário. Ao contrário dos kernels monolíticos padrão, os drivers de dispositivo são facilmente configurados como módulos, e carregados e descarregados enquanto o sistema está rodando. Também ao contrário de kernels monolíticos padrão, drivers de dispositivo podem ser pré-inseridos sob certas condições. Essa última característica foi adicionada para corrigir o acesso a interrupções de hardware, e para melhorar o suporte a multiprocessamento simétrico. Windows Microsoft Windows é um sistema operacional extremamente popular, criado pela Microsoft, empresa fundada por Bill Gates e Paul Allen. O Windows é um produto comercial, com preços diferenciados para cada versão, embora haja uma enorme quantidade de cópias ilegais instaladas, porque ele é o sistema operacional mais copiado do mundo. Apesar do sistema ser conhecido pelas suas falhas críticas na segurança e como plataforma de vírus de computador e programas-espiões (spywares), o impacto deste sistema no mundo atual é simplesmente incalculável devido ao enorme número de cópias instaladas. Conhecimentos mínimos desse sistema, do seu funcionamento, da sua história e do seu contexto são, na visão de muitos, indispensáveis, mesmo para os leigos em informática. Os primeiros Windows, como o 1.0, 2.0 e 3.x, só são compatíveis em partições formatadas com o sistema de ficheiros FAT, ou como é chamado, FAT16. No salto do 3.1 para o 95B (Windows 95 OSR 2/OSR 2.1), os HD's poderiam ser formatados em FAT32. Inicialmente lançado com o Windows NT, a tecnologia NTFS é agora o padrão de facto para esta classe. Com a convergência de ambos sistemas, o Windows XP passou também a preferir este formato. A principal linguagem de programação usada para se escrever o código-fonte das várias versões do Windows é a linguagem C++. Até à versão 3.11, o sistema rodava em 16 bits, daí em diante, em 32 bits. As últimas versões (como o XP, o 2003 e o futuro Windows Vista (nome de código Longhorn) está preparado para a tecnologia 64 bits. Esse sistema deverá incluir o sistema de arquivos WinFS, que acabou retirado do Windows Vista. Amoeba O sistema operacional distribuído Amoeba é o fruto da investigação de Andrew S. Tanenbaum, na Universidade Vrije na Holanda, . O objetivo do projeto era construir um sistema de timesharing que aparentasse ao utilizador que uma tarefa seria executada numa única máquina mesmo que estivesse realmente a correr em múltiplas máquinas. A última versão do projeto foi a 5.3 em 12 de fevereiro de 2001. Depois de seu desenvolvimento, o Amoeba precisava de uma linguagem de programação de scripts, foi então que começou o desenvolvido do Python, evolucionado do ABC e Modula. Minix O Minix é uma versão do Unix, porém, gratuita e com o código fonte disponível. Isso significa que qualquer programador experiente pode fazer alterações nele. Ele foi criado originalmente para uso educacional, para quem quisesse estudar o Unix "em casa". No entanto, vale citar que ele foi escrito do “zero” e apesar de ser uma versão do Unix, não contém nenhum código da AT&T e por isso pode ser distribuído gratuitamente. Características o Multiprogramação por completo (múltiplos programas podem rodar ao mesmo tempo ). o Roda em 286, 386, 486, Pentium. o Suporta memória estendida (16MB no 286 e 4GB no 386, 486 e Pentium). o RS-232 serial line suporte com terminal emulation, kermit, zmodem, etc.

13 

Romildo Martins Bezerra

o o o o o o o o o

Máximo de três usuários simultaneamente na mesma máquina. Sistema de chamada compatível com POSIX. Inteiramente escrito em C (SO, utilitários, bibliotecas etc.). Compilador ANSI C. Shell funcionalmente idêntico ao Bourne shell. Rede TCP/IP. 5 editores (emacs subset, vi clone, ex, ed, and simple screen editor). Mais de 200 utilitários (cat, cp, ed, grep, kermit, ls, make, sort, etc.). Mais de 300 bibliotecas (atoi, fork, malloc, read, stdio, etc.).

O Minix é organizado em quatro camadas, onde a camada 1 e 2 formam o kernel: 1º) Gerenciamento de Processos o Captura interrupções e traps, salvar e restaurar registradores, agendar as demais funções para realmente fazer a abstração de processo; o Gerenciar a mecânica das mensagens, verificar destinos legais, localizar buffers de envio e recebimento de memória física e copiar bytes do remetente para o destinatário. 2º) Tarefas de Entrada e Saída o Processos de IO, um por dispositivo; o As tarefas de IO são chamadas drivers de dispositivos; o As tarefas não podem executar todas as instruções no nível da máquina, nem podem acessar todos os registradores da CPU, ou todas as partes da memória, ao contrário da camada 1; o Porém podem acessar regiões da memória que pertencem a processos com menos privilégios. 3º) Processos de Servidor o Contém processos que fornecem serviços úteis ao usuário; o Existem em um nível menos privilegiado que o kernel; 4º) Processos de Usuário o Shell, editores, compiladores, etc

Pesquise 1. 2. 3. 4. 5.

Problema dos Filósofos Diferença entre paginação e segmentação de memória. Algoritmos de substituição de páginas. O funcionamento passo a passo de uma falta de página. Como a memória virtual é implementada no Windows e Linux.

Temas para trabalhos 1. 2. 3.

Programação Concorente MINIX SOSIM

Bibliografia [1] TANENBAUM, A., Organização Estruturada de Computadores, 5ª Edição, 2006. [2] TANENBAUM, A. Sistemas Operacionais Modernos. 2ª Edição 2006. [3] TOSCANI, S.; OLIVEIRA, R.; CARISSIMI, A. Sistemas operacionais. 3ª Edição Sagra Luzzatto, 2004.

14