Τίτλος | Ομιλητής |
---|---|
Introduction / EuroCC@Greece | Ilias Hatzakis, GRNET, EuroCC@Greece |
Introduction to AUTH’s HPC infrastructure “Aristotelis” | Paschalis Korosoglou, HPC engineer, IT AUTH |
Introduction to LLMs | Nikos Bakas, Senior Data Scientist, GRNET |
Using LLMs on “Aristotelis” HPC infrastructure: deployment, experimentation, capacity and limitations, applications | George Vlahavas, Researcher, AUTH |
Break (15') | |
European supercomputers and LLMs: a match made in heaven? | Simeon Harrison, Trainer at EuroCC Austria |
Deploying Generative AI Responsively | Stergios Tegos, CEO at Εnchatted.com |
Developing an LLM using Finish with LUMI | Mats Sjöberg, EuroCC Finland |
ChatGPT API: introduction, usage, example, live demo | Nikos Bakas, Senior Data Scientist, GRNET |
LLMs for political speech analysis (Greek national elections 2023) | Pavlos Sermpezis, Researcher, AUTH |
Metaphor Identification and Interpretation in Natural Language Processing | Vivian Pavlopoulou, Researcher, School of Philology, AUTH |
Questions / Open discussion |
Zoom link:
Κατά τη διάρκεια των παρουσιάσεων μπορείτε να χρησιμοποιείτε το παρόν κείμενο για να κάνετε ερωτήσεις (το chat του zoom προτείνουμε να χρησιμοποιείται μόνο για θέματα που σχετίζονται με το zoom).
Για να χρησιμοποιήσετε το HackMD document δεν απαιτείται να κάνετε signup ή login.
To HackMD είναι real-time editor και viewer.
Οι βασικές επιλογές του editor είναι αυτές που εμφανίζονται στην παρακάτω εικόνα.
EuroCC@Greece training questionnaire (πολύ σύντομο ερωτηματολόγιο από το EuroCC@Greece για τα training needs):
https://docs.google.com/forms/d/e/1FAIpQLSdHpJyAbIuWwpelBy812mEirEOGzYnV5JFMnSQkCu4aItMnJA/viewform
Το κανάλι του EuroCC@Greece στο YouTube: https://www.youtube.com/@euroccgreece9501/playlists
Χρήσιμα links για το HPC υποδομή "Αριστοτέλης" του ΑΠΘ
Ανάλογα με το πρόγραμμα που τρέχουμε στον Αριστοτέλη, πρέπει να επιλέγουμε και το partition?
batch
partition αφορά κυρίως παραλληλες εργασίες έως 20 cores per noderome
partition αφορά σε εργασίες που μπορούν να παραλληλοποιηθούν σε πολύ μεγάλο βαθμό, και αυτό διότι κάθε μηχάνημα διαθέτει 128 cpu coresgpu
partition είναι η πρώτη γενιά μηχανημάτων με gpu acceleration που προστέθηκαν στον «Αριστοτέλη» και αφορούν σε εργασίες που μπορούν να επωφεληθούν από GPU accelerationampere
partition διαθέτει οκτώ κάρτες GPU NVIDIA A100 και απευθύνεται σε GPU-accelerated και AI workloadsondemand
partition υποστηρίζει την υποδομή απομακρυσμένης επιφάνειας εργασίας και προορίζονται κυρίως για εκπαιδευτική χρήση, για λόγους workflow development/validation και για ελαφρού τύπου post processing εργασίες.Επί του παρόντος χρησιμοποιώ το MobaXterm για πρόσβαση στην συστοιχία. Υπάρχουν αντίστοιχες εναλλακτικές για αυτό; Στο μέλλον, υπάρχει σκέψη να υποστηριχθούν και άλλοι client (π.χ. VSCode)?
Υπάρχει εντολή για το χρόνο της πιθανής έναρξης της εργασίας?
$ sbatch --test-only run.sh
Για να αναπτύξουμε το δικό μας γλωσσικό μοντέλο με 70Β παραμέτρους, τι hardware θα χρειαστούμε;
Πώς θα δω την ολοκληρωμένη λίστα των υπαρχόντων μοντέλων που είναι διαθέσιμα για κατέβασμα;
Μπορώ να κάνω παράλληλη χρήση πολλών GPU με το Ollama;
ampere
partition όπου μπορούν να δεσμευτούν περισσότερες της μίας κάρτες GPU. Η απόδοση ενδέχεται να επηρεάζεται από τη ταχύτητα επικοινωνίας ανάμεσα στις 2 (ή περισσότερες) GPUs καθώς και στο ίδιο το μοντέλο (στο κατά πόσο τα layers είναι ανεξάρτητα).ampere
partition οπότε μάλλον δεν χρειάζονται περισσότερες της μίας για αυτό το μέγεθος. Είναι στην πραγματικότητα προτιμότερο να εκτελεστεί σε μία μόνο GPU.Υπάρχει κάποιος οδηγός για finetuning από το ΚΗΔ με τη χρήση της συστοιχίας ή θα χρειατεί να περιμένουμε κάποιο επόμενο σεμινάριο;
Η εντολή export host μπορεί να εκτελεστεί και για εργασίες που δεν αφορούν το Ollama για τη σύνδεση στο κόμβο ampere;
ChatGPT fine-tuning is costly. Is it in terms of compute power needed or there is additional API cost to OpenAI?
Tips on running inference for big LLM's with less memory. https://ai.gopubby.com/unbelievable-run-70b-llm-inference-on-a-single-4gb-gpu-with-this-new-technique-93e2057c7eeb
Next training course "Large Language Models on Supercomputers" by VSC & EuroCC Austria, July 3-4, https://events.vsc.ac.at/event/136/
Material by enchatted.com :
Project - Ανάλυση πολιτικού λόγου με χρήση ChatGPT (εθνικές εκλογές 2023) by Datalab