Acelere seus algoritmos de Machine Learning com CUDA no Linux

Acelere seus algoritmos de Machine Learning com CUDA no Linux

Se você deseja trabalhar com algoritmos de Machine Learning, provavelmente precisará usar processamento paralelo para acelerar os resultados dos seus algoritmos. Muitos frameworks como por exemplo, o TensorFlow, já possuem versões de certos algoritmos para execução em GPU. O primeiro passo para acelerar seus algoritmos com CUDA, é preparar a infraestrutura do seu sistema operacional.

Atualmente o Linux, constitui o sistema operacional mais usado para programar . As distribuições baseadas no Ubuntu, têm se destacado quando o assunto é facilidade e suporte para preparar o ambiente de programação. Este tutorial poderá ser aplicado em qualquer distribuição baseada no Ubuntu, até mesmo derivadas do Red Hat como, CentOS ou Fedora, desde que sejam feitas algumas adaptações.

Estas instruções foram testadas nas distribuições Ubuntu 16.04 e Linux Mint 18.2 Mate 64-bit.

Antes de qualquer etapa, para instalar o driver NVIDIA é necessário desabilitar o driver nouveau, instalado por padrão.

O primeiro passo é bloquear os módulos do driver nouveau:

$ sudo vim /etc/modprobe.d/blacklist-nouveau.conf

blacklist nouveau
blacklist lbm-nouveau
options nouveau modeset=0
alias nouveau off
alias lbm-nouveau off

Agora vamos desabilitar o módulo no kernel:

$ sudo echo options nouveau modeset=0 | sudo tee -a /etc/modprobe.d/nouveau-kms.conf

Reconstruímos o kernel sem o módulo nouveau:

$ sudo update-initramfs -u

Reinicie o sistema operacional.

Agora sim! Podemos instalar o driver NVIDIA. Para isto, são necessários utilitários: compiladores para linguagem de programação C (GCC), utilitários para compilação como o comando make. Em distribuições baseadas no Debian ou Ubuntu, o pacote a ser instalado é o build-essential.

$ sudo apt install build-essential

Faça o download CUDA Toolkit no site oficial da NVIDIA.

Baixe a versão para LinuxUbuntu 16.04runfile (local)

É necessário parar a execução da interface gráfica para instalação do toolkit:

$ sudo systemctl stop lightdm

Agora execute o arquivo de instalação do CUDA Toolkit.

Importante: para evitar conflitos durante a programação em CUDA, recomenda-se usar o driver NVIDIA, apenas para programar, afastando a utilização para a interface gráfica. Para isso, veja o parâmetro:

$ chmod +x cuda_9.0.176_384_linux.run
$ sudo ./cuda_9.0.176_384_linux.run --no-opengl-libs

Responda as perguntas do instalador da seguinte maneira:

  1. y para a instalação num ambiente de configuração não suportado.
  2. y para instalação do driver NVIDIA.
  3. n para não executar o nvidia-xconfig
  4. y para instalar o Cuda 9.0 Toolkit.
  5. Pressione ENTER para deixar como localização padrão do Toolkit o diretório /usr/local/cuda-9.0
  6. y para instalar um link simbólico para /usr/local/cuda
  7. y para instalar os exemplos de código (samples) para o CUDA 9.0.
  8. Escolha um diretório para armazenar os exemplos de código do CUDA e pressione ENTER.

Neste momento, devemos configurar as variáveis de ambiente para usar o CUDA mais eficientemente:

$ export PATH=/usr/local/cuda-9.0/bin:$PATH
$ export LD_LIBRARY_PATH=/usr/local/cuda-9.0/lib64:$LD_LIBRARY_PATH

Guarde no sistema, no arquivo .profile, as variáveis do usuário que programará em CUDA,  desta forma, ao reiniciar o SO, não será necessário exportar as variáveis novamente.

$ vim ~/.profile

export PATH=/usr/local/cuda-9.0/bin:$PATH

export LD_LIBRARY_PATH=/usr/local/cuda-9.0/lib64:$LD_LIBRARY_PATH

As duas linhas “export” devem vir no final do arquivo. Execute o comando source para executar os comandos “export” definidos no arquivo .profile:

$ source ~/.profile

Nas próximas inicializações do SO, não será necessário executar o comando source.

Pronto!

Execute o comando nvidia-smi para ver as GPUs disponíveis no seu computador:

$ nvidia-smi

Verifique a versão do compilador NVCC:

$ nvcc --version

Até os próximos posts!

Anterior 4Linux marca presença no FISL Porto Alegre com palestras sobre Python e DevOps
Próxima Participe do The Developers Conference 2018 em São Paulo

About author

Leonardo Afonso Amorim
Leonardo Afonso Amorim 8 posts

Professor de cursos de Big Data e Machine Learning na 4Linux. Doutor em Ciência da Computação pela UFG com pesquisa sobre Processamento de Alto Desempenho (HPC) com aplicações em Processamento de Linguagem Natural (NLP).

View all posts by this author →

Você pode gostar também

DevOps

Descubra como a cultura DevOps pode impulsionar sua empresa

O DevOps é utilizado por grandes empresas globais como a Amazon e pode ser considerado uma cultura disruptiva que quebra padrões e processos tradicionais, gera valor mais rápido aos negócios

Monitoramento TI

Monitoramento Contínuo: A chave para uma infraestrutura de TI sustentável

Eventualmente, mesmo os sistemas e infraestruturas mais sustentáveis precisarão acompanhar os esforços para a prevenção. Por isso, o Continuous monitoring (monitoramento contínuo) é essencial. Técnicas de monitoramento contínuo costumam melhorar

Notícias

Lançamento do curso Big Data Analytics com Hadoop pela 4Linux

A 4Linux informa nesta data o lançamento  do treinamento Big Data Analytics com Hadoop , o primeiro curso na área de big data da 4Linux. O Hadoop é um projeto de