Dans cette vidéo nous découvrons Ollama cloud une méthode pour faire tourner de plus gros Large Languages Models dans un server distant mais confidentiel. Après une petite introduction, nous explorons comment l'utiliser puis nous concluons par quelques limitations et la place de Ollama Cloud dans l'eco-système des LLMs confidentiels.
RESSOURCES
Playlist Ollama FR
https://www.youtube.com/playlist?list=PLSYhtt87oGALLAeLS9SEtMru-kdpiza9u
Introduction à Ollama
https://youtu.be/Pbjiy5yXhfM
Ollama GUI
https://youtu.be/caO9dYzbexA
Ollama API: Python, JavaScript, R, Nim et Julia
https://youtu.be/ycnUI-3ERhA
Ollama et Page Assist RAG
https://youtu.be/OOa_uaKfMeM
Ollama Cloud
https://ollama.com/cloud
Ollama Doc
https://docs.ollama.com/
Playlist Nushell FR
https://www.youtube.com/playlist?list=PLSYhtt87oGAIwKKCyZJSiCTZf0UM8Wl9C
Ollama
https://ollama.com/
PLAN
00:00:00 Intro
00:01:10 Ollama Cloud
00:07:11 Compte Ollama cloud
00:09:20 Ollama Cloud et Ollama
00:13:45 Le terminal et Page Assist
00:15:30 Limite d'usage et documentation
00:16:29 Limites d'Ollama cloud et alternatives confidentielles
00:20:18 Mot de la fin
00:20:49 Outro