Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
NVIDIA anuncia DLSS 4

NVIDIA Ensina Como Rodar IAs Avançadas em PCs com GPUs GeForce RTX

Cansado de assinaturas de IA? A NVIDIA mostra como executar LLMs (Large Language Models) localmente em seu PC, garantindo mais privacidade, controle e velocidade. Com as GPUs GeForce RTX e ferramentas gratuitas, a inteligência artificial está mais acessível do que nunca!

Ferramentas Gratuitas para Executar IA no seu PC

A NVIDIA anunciou um novo blogpost que orienta desenvolvedores, estudantes e entusiastas a utilizarem LLMs diretamente em seus PCs, eliminando custos e garantindo total privacidade. Com a aceleração das GPUs GeForce RTX, a experiência se torna fluida e instantânea.

Confira as principais ferramentas de código aberto para começar a rodar IA localmente:

  • Ollama: Uma das formas mais acessíveis de começar. Com uma interface simples, a ferramenta permite arrastar e soltar PDFs em prompts, manter conversas e até experimentar fluxos de trabalho que combinam texto e imagens.
  • AnythingLLM: Crie um assistente de IA pessoal para organizar anotações e documentos. Em conjunto com o Ollama, ele pode criar questionários e cartões para estudos de forma privada, rápida e gratuita.
  • LM Studio: Explore dezenas de modelos de IA com uma interface amigável. Você pode carregar diferentes LLMs, conversar em tempo real e até usá-los para integrar em projetos personalizados.
  • Project G-Assist: O assistente de IA da NVIDIA que permite controlar o PC com comandos de voz ou texto, ajustando bateria, ventoinha e configurações de desempenho.

Otimizações para PCs com GeForce RTX

A NVIDIA está trabalhando para otimizar as ferramentas de IA, garantindo a melhor performance nas GPUs GeForce RTX:

  • Ollama Otimizado: As atualizações mais recentes garantem até 50% mais otimização para modelos de IA, além de um agendamento inteligente que melhora a eficiência em múltiplas GPUs.
  • Llama.cpp e GGML Acelerados: Estes frameworks de IA agora oferecem inferência mais rápida e eficiente, com suporte a modelos como o NVIDIA Nemotron Nano v2 9B.
  • Parceria com a Microsoft: A Microsoft lançou o Windows ML com NVIDIA TensorRT, que oferece até 50% de ganho de desempenho em inferência, simplificando a implantação de LLMs e modelos de difusão no Windows 11.

Leia também ...