Mostrando postagens classificadas por relevância para a consulta Dando uma olhada na arquitetura dos processadores #. Classificar por data Mostrar todas as postagens
Mostrando postagens classificadas por relevância para a consulta Dando uma olhada na arquitetura dos processadores #. Classificar por data Mostrar todas as postagens

Dando uma olhada na arquitetura dos processadores #3

MMU de um Motorola
MMU de um Motorola

Estamos na terceira parte da série Dando uma olhada na arquitetura dos processadores. Na primeira parte da série tratamos da arquitetura de Von Neumann, Na segunda parte tratamos de um recurso muito importante que é a Unidade de Ponto Flutuante e o seu contesto histórico.

Agora continuando dentro dos recursos temos também a MMU (Memory Management Unit ou a Unidade de Gerenciamento de Memória) Que traduz endereços virtuais para endereços físicos. Antigamente era um chip aparte e hoje (assim como o FPU) é comum estar incorporado aos processadores. Se pararmos para ler os e-mails do anuncio do lançamento do kernel Linux, uma das perguntas feita a Linus era se o Linux possuía suporte a MMU.

Esquema de como funciona o MMU
Esquema de como funciona o MMU

DSP (Digital Signal Processor ou Processador de Sinal Digital) é utilizado para processar áudio e vídeo e faz a eliminação de ruídos. Essa tecnologia é utilizada em teclados musicais, mesas de som, mas não é necessariamente utilizado nos processadores que utilizamos hoje. Alguns jogos do super Nintendo como o Super Mario Kart utilizaram essa tecnologia.

SIMD (Single Instruction Multiple Data ou Dados Únicos de Múltiplas Instruções) de forma simples de entender é o que realiza operações em paralelo (assim como o j-core). A sigla MMX da Intel que conhecemos, trata-se exatamente desse SIMD.

Por hora eu vou ficando por aqui, espero que tenham gostado e vamos compartilhando conhecimento :)

Não esqueçam de ajudar o canal e o blog a se manter independente se tornando um padrinho ;)

Dando uma olhada na arquitetura dos processadores #2

Unidade de Ponto Flutuante

Beleza cambada? Depois do vídeo "Minha opinião sobre as vulnerabilidades dos processadores da Intel" iniciei a essa série para olharmos um pouco mais a fundo nos processadores e não ficar simplesmente limitados a clock, cache e threads.

No primeiro capítulo falamos sobre a arquitetura de Von Neumann explicando como funciona sendo dividida entre a Unidade Logica e Aritmética e a Unidade de Controle. Porém não dá para limitar toda a arquitetura dos processadores a Von Neumann uma vez que a arquitetura de Von Neumann também possui as suas limitações.

Foi aí que os processadores passaram a receber muitos outros recursos como a FPU (sigla de Floating Point Unit ou Unidade de Ponto Flutuante em português) que realiza operações matemáticas de representação de dados. A FPU é responsável por realizar cálculos mais complexos ou mais simples que a ULA não é capaz de realizar.

Antigamente a FPU era um chip separado da CPU como na foto abaixo, era um co-processador matemático. Então nós comprávamos os computadores e depois tínhamos que comprar o co-processador matemático aparte. Vale a ressalva que os co-processadores eram caros:


Porém, a partir mais ou menos dos 486 as FPUs passaram a ser incorporados aos processadores e hoje dificilmente não se encontra dentro de um processador como na ilustração abaixo:

Contando algumas curiosidades históricas interessantes sobre a FPU:
  1. Linus juntou uma grana para comprar um novo computador. Como a bagaça era muito cara, então Linus resolveu fazer upgrade na máquina que já tinha adicionando um co-processador matemático e mais memoria.
  2. Um dos fatores de sucesso do Linux quando surgiu (além de ser mais leve e mais rápido que os BSDs) foi exatamente porque o BSD exigia o uso de certo de tipo de hardware para rodar; um deles era o FPU (inclusive FPUs eram caros) e Linux o Linux não.
  3. Em 1994, um professor na universidade de Lynchburg encontrou um bug no FPU do processador Pentium. Eu me lembro que foi dito que esse bug acontecia no Pentium, mas não no 486. Mencionei esse bug no vídeo "Minha opinião sobre as vulnerabilidades dos processadores da Intel".
  4. A AMD adquiriu os direitos do X86 da NexGen, empresa fundada por um ex engenheiro da Intel que tinha direitos sobre algumas tecnologias. Essas tecnologias foram incorporadas ao k6 (que inclusive alguns k6 foram considerados mais rápidos que o pentium II).
  5. Eu li que o FPU dos processadores da empresa VIA possuíam melhor processamento do que os da Intel. 
  6. Uma coisa que eu descobri através de um engenheiro de software da Red Hat que utiliza a zsh é que o terminal Bash precisa de algum(ns) programa(s) programa(s) externo(s) como perl para realizar cálculos em ponto flutuante. Enquanto que o terminal ZSH não há essa necessidade:

Comparação de uso de calculos em ponto flutuante nos terminais ZSH e BASH
Comparação de uso de calculos em ponto flutuante nos terminais ZSH e BASH



Diferentes arquiteturas de processadores

Diferentes arquiteturas de processadores

Diferentes arquiteturas de processadores

    Desde o ano passado, um dos assuntos que mais vem ganhando repercução é sobre a Apple migrar de X86 da Intel para seu próprio ARM chamado Apple Silicon, o Linux passar a ter suporte a esse processador da Apple, a NVidia adquirir a arquitetura ARM e o Risc-V passar a ganhar mais notoriedade depois da ultima menção. Depois de tudo o que mencionei, me senti inspirado a escrever este artigo.

    Eu já escrevi uma série chamada "Dando uma olhada na arquitetura dos processadores" onde debato como o processador é constituído internamente (andei até mesmo dando uma atualizada tratando da arquitetura de Havard mostrando em que se difere da arquitetura de Von Neumann e pretendo adicionar mais coisas. Mas  vamos deixar isso para o futuro Deus permitindo que eu faça).

Arquitetura de Havard

O que é arquitetura de processador?

    De acordo com o Dicionario de Termos da computação e da Internet (Dictionary of Computer and Internet Terms) arquitetura de processador é um conjunto  de instruções que decodificam e executam operações aritméticas e lógicas. Esse conjunto de instruções são denominados ISA (Instruction Set Architecture) e, nas minhas palavras, arquitetura dos processadores é a forma como essas instruções são organizadas. Apesar de popularmente acabarmos tendo contato com apenas com X86, existe uma boa variedade de arquiteturas como CISCRISCEPIC ZISC e Linux é uma fonte abundante para adquirir conhecimento sobre elas.


Arquiteturas que o kernel Linux 5.10 possui suporte

    Dentro das arquiteturas existe uma gama de fabricantes diferentes. Então agora vamos estudar um pouco sobre as arquiteturas, suas variedades e aonde geralmente são aplicadas.

CISC

    CISC (Complex Instruction Set Computers) é uma arquitetura construída com muitas instruções de linguagens de máquina diferentes. Tem como objetivo em seu design completar uma tarefa em poucas linhas de código assembly fazendo com que o compilador tenha pouco trabalho para traduzir o código de alto nível. O problema disso é que as suas tarefas acabam exigindo múltiplos ciclos, fazendo com que leve pelo menos duas vezes mais tempo para executá-las.

    Ressalva, não confunda CISC com CICS. CICS (Costumer Information Control System) é uma extensão da IBM utilizada no IBM System Z que tem como objetivo tornar fácil escrever programas e permitir usuários entrar, recuperar e atualizar dados através do seu terminal (fortemente utilizado em sistemas de pontos de venda, reservas de hotel e sistemas de cobrança).

    Popularmente conhecemos a arquitetura CISC devido aos x86 da Intel, da AMD e da Via (após ter adquirido a antiga Cyrix); mas há outras empresas que também já  fabricaram processadores CISC difrentes de x86 como o VAX, o IBM System/370 e houve também o Motorola 6800 (também conhecido como m68k ou simplesmente 68k) na década de 80 que foi o primeiro processador de 32 bits amplamente utilizado e foi o processador do vídeo game Mega Drive, do Macintosh (pois é, a migração de PowerPC para Intel e depois de Intel para ARM não são as únicas experiencias que a Apple já teve em sua história), dos computadores da HP e da Sun Microsystem. Falando em Sun Microsystem, foi devido o Motorola 6800 que os desenvolvedores de SunOS tornaram o GCC funcional para uso em produção (o que até então, era simplesmente um compilador inviável).


    Parece estranho afirmar, mas deve ser dito. Foi o x86 que tornou os PCs interessantes (especificamente o 386 a partir de 1986); mas historicamente o x86 parou de fazer sentido para o mercado há algum tempo. Basta repararmos como exemplo Apple em 2018 que vendeu 217.7 milhões de Iphones e 18.2 milhões de Macs (mais de 10 vezes mais dispositivos ARM, o que a chamou a sua atenção para abandonar o x86).


    Abreviação de Reduced Instruction Set Computer (Computador com conjunto de instruções reduzidas) é a arquitetura que realiza processos de forma mais simplificada e que foi projetada para desempenho. Devido haver poucas instruções a serem escolhidas, ela leva menos tempo para identificá-las tornando os resultados mais eficientes e executando os processos mais rapidamente. Foi criada inicialmente na IBM por John Cocke e sua equipe de pesquisadores em 1.974 como controlador de central telefônica (a telefonia sempre tendo importância na computação)

John-Cocke.
John Cocke e o primeiro protótipo de computador RISC que o garantiu os premios Turing Award em 1987, the US National Medal of Technology em 1991 e o  the US National Medal of Science em 1994.

 A arquitetura RISC é tão interessante que há um ditado que diz que "O mundo é RISC". E não é de se duvidar já que a arquitetura é utilizada desde Supercomputadores como é o caso do Fugaku a microcontroladores como o H8/300 da Hitachi.

 Alguns exemplos de processadores RISC são o Dec Alpha (primeiro processador de 64 bits e primeira arquitetura que Linux foi portado em Novembro de 1994); ARM que é muito famoso em dispositivos móveis devido a seu baixo consumo de energia conservando a bateria por mais tempo; Spark da Sun Microsystem (divisão da Oracle); o PowerPC (que foi desenvolvido pela IBM, Motrola e Apple para competir com a Intel e foi especialmente projetado para emular programas outros tipos de CPU eficientemente. Foi utilizado também no PlayStation 3, no Xbox 360 e consoles da Nintendo como Game Cube, Nintendo Wii e Nintendo Wii U e pelo sistema operacional OS/2); o MIPS, o Cris (utilizado em dispositivos de rede) e até mesmo a série de chips Super FX da empresa britânica Argonaut Games (adquirida pela Synopsy) que foi utilizado em jogos do Super Nintendo como o StarFox e Yoshi's Island possibilitando a renderização de centenas de polígonos 3D simultaneamente e desenhando efeitos em 2D.

Em Mario World 2: Yoshi's Island foi utilizado o chip Super FX 2 que é um Risc customizado e que possibilitou ao jogo ter elementos 3D e 2D (sim, o jogo é 2.5D), cores vivas e amplas, efeitos de iluminação, semitransparência e objetos passarem uns pelos outros).

RISC VS CISC

    Ambos possuem vantagens e desvantagens e ambos conseguem executar os mesmos tipos de programa; o que vai diferenciar é como é o código de máquina do programa. A principio da leitura deste artigo, o RISC aparenta ser superior ao CISC, mas nem tudo são as mil maravilha. 

    RISC tende a ser mais rápido que CISC SE o acesso a memória for muito rápido; do contrário (se o acesso a memória for relativamente lento) o CISC tende a ser mais rápido que RISC. Além do mais, máquinas RISC tendem a buscar mais instruções da memória para realizar o mesmo trabalho que CISC (ou seja, utiliza-se mais RAM que CISC).

RISC híbrido


    RISCs puros utilizam uma instrução por ciclo de clock. Foi aí que eu conheci a geração de RISCs hibridos que utilizam correção nas instruções de comprimento de 16 bits com registradores e endereço de espaço de 32 bits. Isso torna mais fácil para os compiladores gerarem melhores códigos RISC e retomam grande parte da densidade de código dos projetos CISC. Mais informações sobre chips híbridos podem ser conferidos clicando nesses dois links da Renesas e da Design & Recue.
ParthusCeva Announces Architecture Standard for Hybrid DSP/RISC-Based System-on-Chip for ARM Environment
    A maioria dos fabricantes hoje tentam combinar as vantagens de cada arquitetura dentro dos seus processadores. A Intel por exemplo, introduziu através do Pentium a possibilidade de seu processador traduzir internamente instruções CISC em RISC (podendo executar duas instruções por ciclo assim como o RISC) e o J64 que planejam uma aproximação do x86-64 ao j4 com compatibilidade a 32 bits (seu design foi elaborado no ano passado). Portanto, dificilmente temos CISCs puros quanto RISCs puros assim como dificilmente encontramos kernel totalmente monolítico quanto totalmente micro-kernel.

 A AMD também tinha um projeto de ARM chamado K12 focado em eficiência energética 
que era planejado para ser lançado em 2017. O desenvolvimento do K12 inspirou a criação do Opteron A1100 e a engenharia do Ryzen (agradeço ao Anderson Rincon por ter me fornecido a informação sobre o K12 e por ter revisado este texto para mim).



PA-RISC

 Foi uma arquitetura RISC desenvolvida pela HP tendo uma ideia de arquitetura mais precisa (daí o PA do seu nome que é a silga de Precision Architecture) porém esse processador foi substituído pela arquitetura EPIC.

 Abreviação de Explicitly Parallel Instruction Computing (Computação com instrução explicitamente paralela), foi criada em parceria entre a HP e a Intel para a criação da família Itanium (também conhecida como IA-64) para substituir o PA-RISC. Itanium foi desenvolvido como uma arquitetura de alto desempenho extremamente paralela realizando tal tarefa ao passar as instruções para o compilador que reorganiza o código para o máximo de paralelismo possível enquanto que o hardware foca em executar as instruções. E aqui mora o grande problema, nos compiladores que foi mais critico implementar do que a Intel esperava; o que resultou em um hardware muito caro e com baixa quantidade de software disponível para a arquitetura.





ZISC

    ZISC (Zero instruction set computer) é uma arquitetura que se baseia nos princípios de correspondência de padrões e ausência de microinstruções. De acordo com documento de patentes do Google sobre circuito neural (ou neurochip ou redes neurais), essa é a arquitetura talvez mais apropriada para as tecnologias neurais devido a forma como trabalha.

DSP

    DSP trata-se na verdade de um processador de sinal de digital (daí o seu nome Digital Signal Processor) que é utilizado para processar áudio (até redução de ruído) e vídeo e é fortemente utilizado em mesas de som e instrumentos musicais. Mas também foi utilizado em cartuchos do Super Nintendo para processar jogos como Super Mario Kart.

    Talvez você deva estar pensando por que estou falando deste tipo de chip como uma arquitetura. Bom, a minha ideia era falar sobre DSP no mesmo artigo "Dando uma olhada na arquitetura de processadores" porque, assim como FPU que era chip separado e hoje é incorporado aos processadores, o mesmo pode ocorrer com os DSPs podendo o seu processador possuir instruções DSP adicionadas a ele. De acordo com informações do J-Core (que é um processador que eu acompanho bastante o seu desenvolvimento) as instruções DSP podem quebrar a pipeline do estilo do RISC e eles possuem um novo design de DSP em desenvolvimento.

    alguns exemplos de DSP que o Linux possui suporte são o Hexagon e o C6x da Texas Instrument.

     Bom, finalizo este artigo por aqui acreditando já estar bom por enquanto dado uma boa base de estudo para todo mundo. Pode ser que eu venha atualizá-lo no futuro assim como faço com os demais artigos.

Dando uma olhada na arquitetura dos processadores #1


Como mencionei no vídeo Corei3 e Corei5 vx FX 6300, relatei ali o básico do que todos nós julgamos ser o processador. E no vídeo sobre as vulnerabilidades dos processadores da Intel mencionei que resolvi debater com vocês como é a arquitetura de um processador. Porque ficamos limitados a clock, cache, threads e coisas assim. Vamos então olhar um pouco mais a fundo nos processadores.

A arquitetura dos processadores que utilizamos hoje recebe o nome de a arquitetura de Von Neumann (OK. tem uma parte de ser Turing completo também, mas deixa isso para uma outra hora). E porque esse nome? devido ter sido criado pelo judeu húngaro John Von Neumann na década de 40; o mesmo cara que participou do projeto Manhatan na criação de bombas atômicas e até previu a que altura a bomba iria explodir. Esse é o pai dos computadores que utilizamos hoje. Vale a ressalva de que Einstein não é o único judeu talentoso na história (alias, nem considero Einstein tão gênio como muitos o fazem).

John Von Neumann
Foto de John Von Neumann retirada da Wikipedia

Dentro da arquitetura de Von Neumann temos a ULA (Unidade lógica e aritmética) Que é um circuito digital (ou seja, uma calculadora). Se torna a parte principal por ser quem processa as instruções, recebe instruções de dispositivos de entrada e envia para os dispositivos de saída.

A arquitetura de Von Neumman
A arquitetura de Von Neumann

E dentro da arquitetura de Von Neumann temos também a UC (Unidade de Controle) que é responsável por armazenar os programas na memória. Bom, e essa é a básica da arquitetura de Von Neumann. A coisa é mais longa, mas é basicamente isso. Mas não dá para limitar toda a arquitetura dos processadores a Von Neumann. Os processadores foram recebendo muitos outros recursos depois disso e que continuaremo no próximo capítulo. Logo abaixo, uma forma mais clara de entender a ULA e a UC:


 Há também a arquitetura de Havard que é utilizada geralmente por microcontroladores. A diferença entre a arquitetura de Von Neumann e a arquitetura de Havard é que, na arquitetura de Von Neumann, tanto os programas quanto os dados são armazenados no mesmo tipo de memória. Já na arquitetura de Havard programas e dados são armazenados em diferentes tipos de memórias (por isso alguns microcontroladores utilizarem a arquitetura de Havard. Nesse caso os programas são gravados em ROM enquanto os dados são armazenados em RAM devido a necessidade de serem alterados).


Dando uma olhada na arquitetura dos processadores #4

uma placa do super computador Titan: 4 Opteron AMD (16 núcleos) + 4 NVIDIA Tesla K20X
uma placa do super computador Titan: 4 Opteron AMD (16 núcleos) + 4 NVIDIA Tesla K20X

Além do que acabamos de falar, existem ainda algumas medidas além dos famosos Hertz (Kilohertz, Megahertz e Gigahertz) que estamos obituadas a ver. Por exemplo existe a medida MIPS (Mega Instructions Per Second) que vale a ressalva, não confunda esse MIPS que estamos falando aqui com a arquitetura MIPS da empresa MIPS Technologies Inc. Nesta arquitetura, MIPS significa Microprocessor without interlocked pipeline stages (microprocessador sem estágios
de pipeline intertravados). O MIPS que abordamos aqui trata-se de milhões de instruções por segundo. O SH4 do Dreamcast por exemplo fazia 230 a 360 MIPS a 200MHZ. Já um Corei5 da intel faz em torno de 83 mil MIPS a uns 3.3GHZ. E o um FX da AMD faz muito mais de 90.000 MIPS a mais ou menos 3.5GHZ.


FLOPS (Giga Floating-point Operations Per Second) que é uma medida muito usada em computação cientifica fazendo uso do FPU. O desempenho de um supercomputador é medido em FLOPS, e não em MIPS. Daí os caras medem em:
  • kiloFLOPS kFLOPS 103
  • megaFLOPS MFLOPS 106
  • gigaFLOPS GFLOPS 109
  • teraFLOPS TFLOPS 1012
  • petaFLOPS PFLOPS 1015
  • exaFLOPS EFLOPS 1018
  • zettaFLOPS ZFLOPS 1021
  • yottaFLOPS YFLOPS 1024
Mais do Titan, os canos de metal transportam refrigeração para o supercomputador.

MOPS (Mega Operations Per Second) é utilizada inclusive na taxa de reprodução de áudio e vídeo ao invés de TOPS (Tera Operations Per Second) de acordo com o livro Digital Signal Processing for Multimedia Systems.

Marcadores

A pior história sobre Linux que já ouvi (5) A.I (1) ambiente gráfico (15) AMD (14) analise (9) Andriod (8) artigo (5) benchmark (3) BSDs (20) btrfs (12) Caixa de Ferramentas do UNIX (19) canto do Diego Lins (2) certificações Linux (6) Código Fonte (50) comandos (17) comp (1) compressores (4) container (1) CPU (18) criptografia (2) crowdfunding (9) cursos (21) daemons (13) Debian (30) desenvolvimento (55) desktop (17) DevOps (1) DevSecOps (1) dic (1) Dica de leitura (57) dica DLins (2) dicas do Flávio (27) Dicas TechWarn (1) diocast (1) dioliunx (3) distribuições Linux (13) Docker (7) DragonflyBSD (15) ead Diolinux (2) edição de vídeo (4) EMMI Linux (4) emuladores (5) endless (5) English interview (2) Enless OS (2) entrevista (16) espaço aberto (83) evento (4) facebook (1) Fedora (5) filesystem (60) financiamento coletivo (2) fork (3) fox n forests (4) FreeBSD (12) Funtoo Linux (13) games (87) gerenciadores de pacotes (2) GOG (3) google (8) gpu (3) hardware (99) I.A (1) init system (7) Intel (15) IoT (1) ispconfig (1) jogos (33) kernel (116) lançamento (43) leis (1) LFCS (1) licenças (7) Linus (15) linus torvalds (1) Linux (190) linux foundation (3) linux para leigos (1) live (5) LPI (8) LTS (1) machine learning (1) meetup (1) mesa redonda (27) microsoft (3) microst (1) muito além do GNU (121) não viva de boatos (9) navegadores (3) NetBSD (3) novatec (17) o meu ambiente de trabalho (3) off-topic (12) open source (79) OpenBSD (3) OpenShift (1) os vários sabores de Linux (39) padrim (2) palestras e eventos (3) partições (6) pentest (6) processadores (26) professor Augusto Manzano (11) Programação (40) propagandas com Linux (8) Red Hat (16) redes (2) resenha nerd (4) Resumo da Semana do Dlins (2) resumo do Tux (19) retrospectiva Linux (1) risc-V (1) runlevel (2) Secomp (1) segurança digital (15) servidores (1) shell (1) sistema operacional (19) Software livre e de código aberto (150) sorteio (3) Steam (8) Steam no Linux (6) supercomputadores (4) suse (6) systemd (7) terminal (74) toca do tux (1) toybox (15) tutorial (6) Tux (3) unboxing (7) UNIX (16) UNIX Toolbox (14) vartroy (1) vga (1) vulnerabilidade (3) wayland (2) whatsapp (1) Windows Subsystem for Linux (1) wine (12) WoT (1) ZFS (9)