Comecei a usar LLM ollama num core i3 com 8GB… Até roda… Mas é muita alucinação… 😂
Hello user👋! I've it easy and convenient everyone to easily get to me and have quick convo. For more info, questions , investment guide &tips Remember to connect with me through SimpleX Chat using the following link: https://simplex.chat/contact#/?v=2-7&smp=smp%3A%2F%2FPtsqghzQKU83kYTlQ1VKg996dW4Cw4x_bvpKmiv8uns%3D%40smp18.simplex.im%2FD1yZe9VTHaaYgGw5orbCq5dKNRuXn67I%23%2F%3Fv%3D1-3%26dh%3DMCowBQYDK2VuAyEA8jxuVUwBtzlwikmHx9Tqpstet3raCJyvenI2ql6lWyk%253D%26srv%3Dlyqpnwbs2zqfr45jqkncwpywpbtq7jrhxnib5qddtr6npjyezuwd3nqd.onion
@jack, just to let you know
Não seria o LLAMA? Ele só funciona bem nas versões maiores, mas elas não rodam nem nos pcs comuns mais potentes... Por isso tem serviços na internet que roda e permite testar. O hugginface, se não me engano, faz isso.
Em uma 3060, 12gb, roda razoável. A grande vantagem é que você pode baixar as versões "uncensored" e perguntar coisas que você não obtém respostas nos serviços online. Sem falar que, não vai acabar com suas perguntas sendo vistas por uma agente da PF de cabelo azul no sovaco...
Qual a diferença entre 3060 e 4060? A linha 30xx é para AI?
Já dá para ter bastante privacidade usando o serviço de IA do Duckduckgo, nele da para usar diferentes serviços de IA (Chatgpt, Claude, Llama...) sem logar, e isso é de código aberto.
bacana, não sabia dessa... vou pesquisar...
Tenho o link dele no final da minha lista: nostr:nevent1qqsgx5snqdl2ujxhug5qkmmgkqn5ej6vhwpu4usfz03gt4n24qcfcwspr4mhxue69uhkummnw3ezucnfw33k76twv4ezuum0vd5kzmp0qgs2tmjyw452ydezymtywqf625j3atra6datgzqy55fp5c7w9jn4gqgrqsqqqqqp3pf6y2
Você ainda acessa o SimpleXchat?
Eu dependo muito da notificação para acessar as coisas 😅 Como eu não fui notificado acabei parando um pouco de acessar. Até porquê eu tava focando em produzir algumas coisas...
Kkkkkkk sem problemas
Mas só dá pra ver se tiver no Amethyst. Os outros clientes não suportam edição da nota.
Estou usando Ollama mesmo. Baixei algumas versões mais leves da LLAMA3.2. A 1B esquece que só alucina. A Llama 2 roda muito mal, e as vezes nem roda. Chegou a funcionar o stable diffusion mas depois cagou tudo e colapsou. 😂 . Mas antes de gastar milhares de dólares eu queria ter o gosto. E funciona de forma aceitável. Já vi que vale a pena.
O Ollama baixa uma plataforma básica e depois você pode baixar vários modelos, de várias empresas. Obviamente como é aberto não vai ter os últimos treinamentos delas, mas já está legal.