Πώς να τρέξετε το DeepSeek στο PC σας τοπικά (Oδηγός)

Ξέρατε ότι ένα μοντέλο AI μπορεί να καταναλώσει σχεδόν την ίδια ισχύ σε watt με ένα τυπικό gaming session Call of Duty; Ακούγεται πολύ και σίγουρα εγείρει ερωτήματα σχετικά με το πόσο επιβαρύνει το περιβάλλον. Πέρα από αυτό όμως, το τοπικό inference του DeepSeek στο PC σας μπορεί να γίνει μία ιδιαίτερη ασχολία για τις… κρύες νύχτες του χειμώνα, ή απλά ένα πείραμα χρησιμοποιώντας ένα από τα πιο προηγμένα και ανοικτού κώδικα μοντέλα AI που υπάρχουν.

Ο οδηγός αυτός θα σας βοηθήσει βήμα-βήμα πώς να στήσετε το DeepSeek τοπικά στο PC σας. Επιπλέον, θα σας δείξουμε πώς να μεταφέρετε τα ογκώδη αρχεία των μοντέλων σε άλλο δίσκο, μακριά από τα Windows. Όλα αυτά με τη χρήση ενός setup βασισμένου στο Ollama, ένα πρόγραμμα – server που υποστηρίζει πολλά από τα διαθέσιμα μοντέλα, τόσο της DeepSeek όσο και το Llama της Meta.

Εδώ, θα εστιάσουμε μονάχα στο μοντέλο της DeepSeek, το DeepSeek R1.

1. Τι είναι το DeepSeek και πώς λειτουργεί;

Το DeepSeek είναι ένα προηγμένο γλωσσικό μοντέλο τεχνητής νοημοσύνης (AI language model) που σχεδιάστηκε για να εκτελεί πολύπλοκες εργασίες, ενώ έχει τη δυνατότητα να αντιληφθεί και να μιλήσει με τρόπο που εμείς οι άνθρωποι μπορούμε να καταλάβουμε εύκολα. Ήρθε σαν κεραυνός εν αιθρία στον χώρο του AI προκαλώντας εντυπώσεις με το πόσο αποδοτικό είναι και βάζοντας σε σκέψεις υψηλά ιστάμενα στελέχη εταιριών όπως η OpenAI.

Το γεγονός ότι πρόκειται για ένα open-source μοντέλο, κάνει το DeepSeek ιδιαίτερα θελκτικό για όσους θέλουν να το δοκιμάσουν και στα δικά τους συστήματα, κάτι που επίσης σημαίνει ότι μπορείτε να το κατεβάσετε και να το τρέξετε τοπικά στο PC σας χωρίς να εξαρτάστε από κάποια cloud υπηρεσία.

Χρησιμοποιώντας το DeepSeek, όπως και κάθε άλλο AI μοντέλο μπορείτε να κάνετε τα εξής:

  • Να δημιουργήσετε κείμενο υψηλής ποιότητας, είτε πρόκειται για άρθρα, κώδικα σε οποιαδήποτε γλώσσα προγραμματισμού, ή δημιουργική γραφή όπως ποιήματα και πολλά ακόμα.
  • Να αναλύσετε και να συνοψίσετε μεγάλα κείμενα. Ιδιαίτερα χρήσιμο για αναλυτές ή ανθρώπους που γράφουν διπλωματικές εργασίες και θέλουν πιο άμεσα την κεντρική ιδέα ή το νόημα ενός μεγάλου κειμένου.
  • Να αυτοματοποιήσετε απαντήσεις και διάλογο σε chatbots και άλλα εργαλεία επικοινωνίας. Χρήσιμο για website, καταστήματα και άλλες σχετικές υπηρεσίες που χρειάζονται ένα επιπλέον εργαλείο για την εξυπηρέτηση των πελατών τους.

Το πιο σημαντικό στοιχείο του DeepSeek είναι η δυνατότητά του να εκτελεί inference τοπικά (δηλαδή να παράγει απαντήσεις), χωρίς να χρειάζεται σύνδεση σε απομακρυσμένους server, κάτι που το καθιστά εξαιρετικό για χρήστες που θέλουν τον απόλυτο έλεγχο πάνω στα δεδομένα και τις διεργασίες τους.

Γιατί να χρησιμοποιήσετε το DeepSeek τοπικά;

Η τοπική εκτέλεση του DeepSeek προσφέρει αρκετά πλεονεκτήματα:

  • Ιδιωτικότητα: Δεν χρειάζεται να στείλετε δεδομένα σε servers τρίτων – και αυτό είναι το βασικότερο πλεονέκτημα.
  • Ταχύτητα: Αν έχετε ισχυρό hardware, οι απαντήσεις μπορούν να είναι πολύ πιο γρήγορες από ένα cloud-based API. Σημειώνεται όμως ότι το μοντέλο είναι ιδιαίτερα αποδοτικό, αφού μπορεί να εκτελεστεί και σε λιγότερο ισχυρό harware εύκολα.
  • Ευελιξία: Μπορείτε να προσαρμόσετε τη λειτουργία του μοντέλου σύμφωνα με τις ανάγκες σας. Μέχρι στιγμής, έχουμε δει το μοντέλο (στην ήπια μορφή του 1.5B παραμέτρων) να τρέχει μέχρι και σε Raspberry Pi!
  • Κόστος: Αποφεύγετε τις χρεώσεις συνδρομών και χρήσης AI μοντέλων σε cloud υπηρεσίες. Σύμφωνα με τα δεδομένα της OpenAI αυτή τη στιγμή, το API του DeepSeek είναι περίπου 20 φορές φτηνότερο για τους προγραμματιστές, που θέλουν να ασχοληθούν μαζί του, οπότε συμφέρει, ειδικά μικρούς δημιουργούς και coders.

Ποιες είναι οι απαιτήσεις σε hardware και software για να τρέξω το DeepSeek τοπικά;

Αναφέραμε νωρίτερα ότι το DeepSeek είναι αρκετά αποδοτικό, ωστόσο πρέπει να αναφέρουμε τις πλήρεις απαιτήσεις του – και αυτές που σας προτείνουμε προτού ξεκινήσετε τη διαδικασία στο σύστημά σας. Πριν ξεκινήσετε, βεβαιωθείτε ότι το PC σας πληροί τις ελάχιστες απαιτήσεις:

Hardware:

  • Κάρτα γραφικών (GPU): Μία σύγχρονη GPU με τουλάχιστον 8GB VRAM για βέλτιστη απόδοση. Οι κάρτες που υποστηρίζονται περιλαμβάνουν Nvidia που λειτουργούν με το CUDA, αλλά και AMD οι οποίες προστέθηκαν πρόσφατα στο Ollama.
  • Επεξεργαστής (CPU): Ένας σύγχρονος πολυπύρηνος επεξεργαστής (Intel i7/AMD Ryzen 7 ή καλύτερος). Πολυπύρηνα chip με οκτώ πυρήνες είναι προτιμότερα για να τρέξει γρήγορα το μοντέλο.
  • RAM: 16GB ή μεγαλύτερη μνήμη ώστε να φορτωθεί μέρος του μοντέλου στην κεντρική μνήμη του συστήματός μας.
  • Αποθηκευτικός χώρος: Τουλάχιστον 20GB διαθέσιμα, ανάλογα με το μέγεθος του μοντέλου που θέλετε να κατεβάσετε. Προτείνουμε επιπλέον 20GB ελεύθερα στο drive του λειτουργικού συστήματος για updates και αρχεία temp.

Software:

  • Windows 10/11 ή Linux για ακόμα καλύτερο έλεγχο των μοντέλων
  • Ollama (για την εύκολη εγκατάσταση και διαχείριση του DeepSeek)
  • Page Assist – A Web UI for Local AI Models. Μία επέκταση για Chrome και Firefox το οποίο επιτρέπει τη σύνδεση και τον έλεγχο του Ollama μέσα από ένα tab στον browser μας. Μπορούμε επίσης να χρησιμοποιήσουμε το μοντέλο της επιλογής μας για να ελέγξει μία ιστοσελίδα, να μας δώσει την κεντρική ιδέα από ένα κείμενο online, ενώ μπορούμε και να ‘συνομιλήσουμε’ με την ιστοσελίδα κάνοντας ερωτήσεις σχετικά με το περιεχόμενό της.

Στα επόμενα βήματα, θα δούμε πώς να εγκαταστήσετε το Ollama και να τρέξετε το DeepSeek τοπικά!

2. Πώς να εγκαταστήσετε το Ollama για το DeepSeek

Τι είναι το Ollama και γιατί το χρειαζόμαστε στον οδηγό;

Το Ollama είναι ένα εργαλείο που επιτρέπει την εύκολη εκτέλεση μεγάλων γλωσσικών μοντέλων τοπικά χωρίς περίπλοκες ρυθμίσεις ή τη γνώση command line. Με μερικές απλές εντολές μπορούμε να σετάρουμε το σύστημά μας να τρέχει τα νεότερα μοντέλα τοπικά. Ουσιαστικά, λειτουργεί ως server που διαχειρίζεται τα AI μοντέλα, κάνοντας πιο απλή τη χρήση τους.

Είναι συμβατό με πολλά δημοφιλή AI μοντέλα, συμπεριλαμβανομένου του DeepSeek που θα δούμε εδώ.

Σ.σ. Μπορείτε να παραλείψετε αυτό το βήμα και να πάτε απευθείας στο 3 αφού με την ίδια εντολή που θα τρέξει για πρώτη φορά κατεβαίνει το μοντέλο αυτόματα “.\ollama run deepseek-r1:7b”

Πώς να εγκαταστήσετε το Ollama και το μοντέλο του DeepSeek στο PC σας

Η διαδικασία εγκατάστασης του Ollama είναι απλή:

Windows:

  1. Μεταβείτε στην επίσημη σελίδα του Ollama και κατεβάστε την τελευταία έκδοση για Windows. Υπάρχουν και εκδόσεις για macOS και Linux.
  2. Τρέξτε το αρχείο εγκατάστασης και ακολουθήστε τις οδηγίες για να το εγκαταστήσουμε στο σύστημά μας.
  3. Μόλις ολοκληρωθεί η εγκατάσταση, ανοίξτε ένα Command Prompt (cmd) και πληκτρολογήστε: ollama --version Αν εμφανιστεί η έκδοση του Ollama, η εγκατάσταση έχει ολοκληρωθεί επιτυχώς.
  4. Για ταχύτερη εκτέλεση εντολών, μπορείτε να ανοίξετε το φάκελο εγκατάστασης του Ollama, να πατήσετε Shift + δεξί κλικ και να επιλέξετε Άνοιγμα παραθύρου εντολών εδώ. Αυτό θα ανοίξει ένα CMD απευθείας στον φάκελο επιτρέποντάς σας να εκτελέσετε τις εντολές πιο γρήγορα.

Linux:

  1. Ανοίξτε ένα τερματικό και εκτελέστε την ακόλουθη εντολή για να εγκαταστήσετε το Ollama: curl -fsSL https://ollama.com/install.sh | sh
  2. Επαληθεύστε την εγκατάσταση με: ollama --version

Σειρά έχει η λήψη και η εγκατάσταση του DeepSeek.

  1. Πηγαίνουμε στη σελίδα του Ollama και επιλέγουμε από επάνω αριστερά Models, και το DeepSeek από τη λίστα.

2. Μόλις το επιλέξουμε στην επόμενη σελίδα επιλέγουμε το μοντέλο που ταιριάζει καλύτερα στο hardware μας. Ενημερωτικά, το μοντέλο των 14b (δις παραμέτρων) τρέχει ικανοποιητικά σε ένα σύστημα με Ryzen 7 5700X, 32GB RAM, RTX 4060 8GB. Το μέγεθος αυτού του μοντέλου είναι 8.5GB περίπου.

3. Μόλις βρούμε το κατάλληλο μοντέλο από τη σελίδα Models, κάνουμε κλικ και από τη νέα σελίδα που θα φορτώσει επιλέγουμε το μοντέλο, πατάμε το εικονίδιο του copy από δεξιά και κάνουμε paste στο PowerShell. Η εντολή θα μοιάζει με την παρακάτω. Αντικαταστήστε το 32b με το μοντέλο της αρεσκείας σας, πχ. 8b ή 14b.

3. Πώς να αλληλεπιδράσετε με το DeepSeek

Αφού έχετε εγκαταστήσει το Ollama και το DeepSeek στο σύστημά σας, ήρθε η ώρα να το χρησιμοποιήσετε. Υπάρχουν δύο βασικοί τρόποι να αλληλεπιδράσετε με το DeepSeek:

1. Μέσω του τερματικού (CMD ή PowerShell στα Windows)

Αν προτιμάτε τον παραδοσιακό τρόπο, μπορείτε να εκτελέσετε το DeepSeek απευθείας από τη γραμμή εντολών. Σ.σ. Μπορείτε να τρέξετε αυτή την εντολή απευθείας χωρίς να ακολουθήσετε το βήμα 2 του οδηγού και να κατεβάσετε το μοντέλο λίγο πριν το τρέξετε.

.\ollama run deepseek-r1:14b

Αυτό θα φορτώσει/κατεβάσει το μοντέλο και θα σας επιτρέψει να αλληλεπιδράσετε μαζί του γράφοντας ερωτήσεις και να λαμβάνοντας απαντήσεις. Για να σταματήσετε την εκτέλεση, πατήστε Ctrl + C και κλείστε το παράθυρο του PowerShell.

2. Μέσω της επέκτασης Page Assist

Αν θέλετε μια πιο άνετη εμπειρία χρήσης μέσα από τον browser σας και όχι από το command prompt, το Page Assist είναι μια εξαιρετική λύση. Πρόκειται για ένα extension για Chrome και Firefox που επιτρέπει να χρησιμοποιείτε το DeepSeek απευθείας μέσα σε ιστοσελίδες.

  • Κατεβάστε το από το GitHub: Page Assist Extension
  • Εγκαταστήστε το στον browser της επιλογής σας, υποστηρίζονται Chrome και Firefox
  • Ρυθμίστε το ώστε να συνδέεται με τον τοπικό Ollama server (θα πρέπει ο server να τρέχει κάτω δεξιά στα notification)

Με αυτόν τον τρόπο, μπορείτε να χρησιμοποιείτε το DeepSeek μέσα από το πρόγραμμα περιήγησής σας. Μόλις εγκατασταθεί η επέκταση την τρέχουμε και επιλέγουμε το μοντέλο που θέλουμε να χρησιμοποιήσουμε στο chat.

Επιπλέον δυνατότητες

Το DeepSeek μπορεί να κάνει πολλά περισσότερα από το να απαντά σε απλές ερωτήσεις. Ορίστε μερικά παραδείγματα χρήσης:

  • Προγραμματισμός: Δοκιμάστε να ζητήσετε από το DeepSeek να γράψει κώδικα σε Python ή JavaScript με κάτι που θέλετε να πετύχετε.
  • Ανάλυση και περίληψη μεγάλων κειμένων: Ιδανικό για ακαδημαϊκή χρήση, οποιαδήποτε ανάλυση κειμένου ή για ανάλυση μεγάλων σε μέγεθος εγγράφων.
  • Αυτοματοποιημένες απαντήσεις σε chatbot: Εάν έχετε ένα προσωπικό project chatbot, το DeepSeek μπορεί να το τροφοδοτήσει με απαντήσεις.
  • Φόρτωση knowledge μέσα από PDF, docx κλπ. Μέσω της λειτουργίας Knowledge μπορούμε να μάθουμε στο μοντέλο μας κάτι καινούργιο και να εμπλουτίσουμε τις γνώσεις του ‘ανεβάζοντάς του’ κάποια επιπλέον αρχεία τα οποία θα μελετήσει και θα μπορεί να απαντήσει σχετικά. Η λειτουργία είνα διαθέσιμη από την επάνω δεξιά γωνία του Page Assist, Settings.

Τι να κάνετε όταν ξεμείνετε από χώρο στον C!

Για την ώρα το Ollama δεν έχει εύκολη δυνατότητα μεταφοράς των μοντέλων σε ένα δεύτερο drive. Μπορούμε να χρησιμοποιήσουμε τη λειτουργία symlink των Windows και να αποθηκεύσουμε τα μοντέλα σε ένα άλλο drive στον ίδιο υπολογιστή.

Χρησιμοποιώντας το Symlink Creator, μια εφαρμογή GUI για τη δημιουργία συμβολικών συνδέσμων (Symlinks) και βασίζεται στην εντολή MKLink. Μπορείτε να δημιουργήσετε πολλαπλά symlinks τη φορά.

Για τον λόγο αυτό χρησιμοποιήσαμε την εφαρμογή Symlink Creator, από το Github η οποία αξιοποιεί τις εντολές mklink που εμπεριέχονται στα Windows.

Χρήσιμοι πόροι και κοινότητες

Αν θέλετε να μάθετε περισσότερα ή να συζητήσετε με άλλους χρήστες:

  1. GitHub Repository του DeepSeek: https://github.com/deepseek-ai
  2. Κοινότητα Ollama: https://github.com/ollama/ollama/discussions
  3. Υποστήριξη AI & LLM Enthusiasts: Αναζητήστε κοινότητες στο Reddit ή στο Discord για πιο εξειδικευμένη βοήθεια.

Ακολουθήστε το 8Bitz.gr στο Google News για να μαθαίνετε πρώτοι τα νέα για το PC Hardware!

Περισσότερα:

Σχετικά Άρθρα