Bölümler

  • Chcesz uruchomić modele LLM (np. Llama, Mistral czy Bielika) na własnych warunkach? W tym odcinku dowiesz się o sprzęcie, oprogramowaniu i trikach, które to ułatwią. Konkretna i praktyczna wiedza, która Ci się przyda.

    Oglądaj na YouTube: https://youtu.be/_OKLzmaSmg0

    🔔 Subskrybuj i włącz powiadomienia - Twoja droga do praktycznego ML zaczyna się od jednego kliknięcia: https://www.youtube.com/@DataWorkshop?sub_confirmation=1
    👍 Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie!
    💬 Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je - chętnie odpowiem.
    🤝 Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn: https://www.linkedin.com/in/vladimiralekseichenko/
    🔊 Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML!



    Poruszam też wątek GPT-4o: czy to rewolucja, czy ewolucja? I dlaczego OpenAI w tym modelu postawiło na inferencję oraz jak to jest powiązane z "rozważaniem". Podaję analogię, aby pobudzić Twoją wyobraźnię :).

    Do tego opowiadam jeszcze historię o Elon Musku, jak zorganizował serwerownię z 100 tysiącami kart H100 (+50 tysięcy) w około 4 miesiące, gdzie normalnie zajęłoby to co najmniej rok, i jakie napotkali wyzwania, poza samym zakupem kart GPU (wydał na nie ponad kilka miliardów dolarów). Dla porównania w Polsce na wszystkich uczelniach łącznie jest ok. 1 tys. H100.

    Pracując nad tym odcinkiem zrobiłem ​mapę myśli​, aby lepiej ustrektyryzwaoć wiedzę. Tu możesz je znaleźć. Łap! :) Można powiększać i klikać (część linków zostawiłem, chociaż przyznam, że to długi proces, ale uznałem, że może być wartościowy dla Ciebie).

    🔥 https://mm.tt/app/map/3441826029?t=XESxGmZdR8



    Pytania, na które znajdziesz odpowiedzi w tym odcinku:
    - Czym jest inferencja modeli LLM i jakie są kluczowe wymagania sprzętowe do jej przeprowadzenia?
    Jakie są dostępne opcje dostępu do mocy obliczeniowej potrzebnej do uruchamiania modeli AI i jakie są ich zalety oraz wady?
    - Jakie są główne różnice między zamkniętymi a otwartymi modelami AI i którzy są kluczowi gracze w tej dziedzinie?
    - Ile RAMu potrzebuje DUŻY model językowy i czy Twój komputer da radę?
    - Ile GPU trzeba mieć aby uruchomić Llame 8B, 70B czy nawet 400B?
    Jakie są najważniejsze parametry GPU i co one oznaczają w praktyce (tak po ludzku)?
    - Czy NVIDIA to JEDYNY wybór dla sprzętu? Poznaj alternatywy!
    - Czym jest kwantyzacja modeli LLM i jak wpływa na ich wydajność oraz precyzję?

    Partnerem podcastu jest DataWorkshop.

    Chcesz więcej? Zajrzyj do moich kursów online i ucz się ML i analizy danych w praktyce!
    👉 DS/ML od podstaw - https://dataworkshop.eu/pl/practical-machine-learning
    👉 Python - https://dataworkshop.eu/pl/intro-python
    👉 Statystyka - https://dataworkshop.eu/statistics
    👉 SQL - https://dataworkshop.eu/pl/sql
    👉 Time Series - https://dataworkshop.eu/pl/time-series
    👉 NLP - https://dataworkshop.eu/pl/nlp

    🎧 Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts:
    📌 https://open.spotify.com/show/3ZUaHommHHZU6b4WJiyV2I
    📌 https://podcasts.apple.com/us/podcast/biznes-myśli/id1215290277
    📌 https://music.youtube.com/playlist?list=PLWOCRT27Z94XZzwcRI9-ExMyUXeBrF3W_

  • Czy sztuczna inteligencja zastąpi klasyczne uczenie maszynowe? Dowiedz się, jak skutecznie wykorzystać obie technologie w biznesie!

    ✔ Subskrybuj kanał: / https://www.youtube.com/@DataWorkshop?sub_confirmation=1
    👍 Zostaw like!
    ❗Obserwuj mnie na LinkedIn https://www.linkedin.com/in/vladimiralekseichenko
    📢 Poleć ten podcast znajomym zainteresowanym praktycznym wykorzystaniem AI w biznesie!

    Przedstawiam różne perspektywy, dzieli się osobistymi doświadczeniami i analizuję, jak te technologie mogą wspierać decyzje biznesowe.

    W tym odcinku dowiesz się:
    • Jakie są kluczowe różnice między LLM a klasycznym ML?
    • Kiedy warto inwestować w LLM, a kiedy lepiej stosować tradycyjne podejście?
    • Jak łączyć obie technologie dla uzyskania najlepszych rezultatów?
    • Jakie są praktyczne zastosowania LLM w biznesie?


    Najważniejsze tematy:

    1. LLM (Large Language Models) i klasyczne uczenie maszynowe (ML) mają różne zastosowania i zalety - wybór między nimi powinien zależeć od charakteru problemu i dostępnych danych.
    2. Klasyczne ML nadal wytwarza większą wartość w biznesie, szczególnie dla danych tabelarycznych, oferując lepszą jakość, szybkość i interpretowalność wyników.
    3. LLM są przydatne do pracy z nieustrukturyzowanym tekstem, tworzenia baz wiedzy i wspomagania komunikacji między zespołami technicznymi a biznesowymi.
    4. Najlepszym podejściem jest często łączenie klasycznego ML z LLM, wykorzystując zalety obu metod.
    5. Wdrażanie i utrzymanie rozwiązań opartych na klasycznym ML jest zwykle prostsze i tańsze niż w przypadku LLM.
    6. LLM nie zastępują całkowicie zespołu data science, ale mogą być cennym narzędziem wspomagającym, np. w generowaniu kodu czy dokumentacji.
    7. Przy projektowaniu rozwiązań AI kluczowe jest zrozumienie problemu, skupienie się na stabilności i przewidywalności, a nie tylko na najnowszych narzędziach.

    Subskrybuj teraz i włącz dzwonek powiadomień, aby być dostawać praktyczną wiedzę o uczeniu maszynowym.
    Ten podcast to KONIECZNIE POZYCJA dla każdego, kto:
    - Interesuje się sztuczną inteligencją i jej zastosowaniami w biznesie
    - Rozważa wdrożenie LLM-ów lub klasycznego ML w swojej firmie
    - Chce być na bieżąco z najnowszymi trendami w AI



    Oglądaj na Youtube: https://youtu.be/TPDvcFeuoZ4



    Autorskie kursy Vladimira:
    👉 DS/ML od podstaw - https://dataworkshop.eu/pl/practical-machine-learning
    👉 Python - https://dataworkshop.eu/pl/intro-python
    👉 Statystyka - https://dataworkshop.eu/statistics
    👉 SQL - https://dataworkshop.eu/pl/sql
    👉 Time Series - https://dataworkshop.eu/pl/time-series
    👉 NLP - https://dataworkshop.eu/pl/nlp

    🔥 Chcesz uczyć się ML/DS w DataWorkshop? Zarezerwuj indywidualną konsultację, aby doradzić najlepszą opcję dla Ciebie.
    https://dataworkshop.typeform.com/to/YCBMn37h



    Linki do podcastu:
    📌 https://youtu.be/4pfEZuw3dtE
    📌 https://biznesmysli.pl
    📌 Apple Podcasts: https://podcasts.apple.com/us/podcast/biznes-myśli/id1215290277
    📌 https://open.spotify.com/show/3ZUaHommHHZU6b4WJiyV2I
    📌 Google Podcasts https://music.youtube.com/playlist?list=PLWOCRT27Z94XZzwcRI9-ExMyUXeBrF3W_
    📌 Spreaker: https://www.spreaker.com/podcast/biznes-mysli--2214604



    #machinelearning #datascience #genai #llm #ml #ai

  • Eksik bölüm mü var?

    Akışı yenilemek için buraya tıklayın.

  • Odkryj potęgę lokalnych modeli AI! Uruchom je na swoim laptopie lub serwerze.
    Czytaj: https://biznesmysli.pl/lokalne-modele-ai-twoje-dane-twoje-zasady
    ❗Obserwuj mnie na LinkedIn https://www.linkedin.com/in/vladimiralekseichenko
    ✔ Subskrybuj kanał: / @DataWorkshop
    👍 Zostaw like!

    📢 Poleć ten podcast znajomym zainteresowanym praktycznym wykorzystaniem AI w biznesie!


    🔑 Dowiesz się:
    - Jakie są zalety i wady korzystania z ChatGPT przez stronę internetową vs. API OpenAI lub chmury Azure.
    - Czym są modele lokalne, self-hosted, open source i offline oraz jakie dają możliwości.
    - Jakie narzędzia ułatwiają uruchamianie i dostosowywanie lokalnych modeli, np. Ollama, LM Studio, Jan.ai, llama.cpp, OpenWebUI.
    - Jak lokalne modele językowe wpływają na bezpieczeństwo i prywatność danych.
    - Jak wykorzystać lokalne modele do transkrypcji audio, analizy obrazu i innych zadań biznesowych.
    - Jakie są wyzwania i ograniczenia związane z korzystaniem z lokalnych modeli.

    🔗 Wspomniane narzędzia
    - Ollama: https://ollama.com
    - LM Studio: https://lmstudio.ai
    - Jan.ai: https://jan.ai
    - OpenWebUI: https://openwebui.com
    - llama.cpp: https://github.com/ggerganov/llama.cpp
    - whisper.cpp: https://github.com/ggerganov/whisper.cpp



    💬 Podziel się w komentarzach swoimi doświadczeniami z lokalnymi modelami AI. Jakie widzisz zastosowania w swoim biznesie?

    Słuchaj/czytaj na innych platformach:
    📌 Spotify: https://open.spotify.com/show/3ZUaHommHHZU6b4WJiyV2I
    📌 Google Podcasts https://music.youtube.com/playlist?list=PLWOCRT27Z94XZzwcRI9-ExMyUXeBrF3W_
    📌 Apple Podcasts https://podcasts.apple.com/us/podcast/biznes-myśli/id1215290277
    📌 Spreker: https://www.spreaker.com/podcast/biznes-mysli--2214604
    #llm #ai #machinelearning #llama #datascience #genai

    🎙️ W tym odcinku:
    0:32 - Wprowadzenie do świata LLM i ich biznesowego potencjału
    5:48 - Publiczny ChatGPT vs bezpieczeństwo danych firmowych
    11:46 - Rewolucja open source: modele Llama dorównują komercyjnym rozwiązaniom
    17:15 - Ollama i LM Studio: narzędzia do lokalnego uruchamiania AI
    24:51 - Jan.ai i trend małych modeli językowych
    29:32 - Korzyści z lokalnych modeli AI: zgodność z GDPR i EU AI Act
    35:35 - Whisper CPP: lokalna transkrypcja audio bez kompromisów
    44:44 - Kontrola nad modelami AI: klucz do sukcesu w biznesie
    49:08 - Phi 3.5 od Microsoft: mały model, wielkie możliwości

  • RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?

    Problem: Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi.

    Przyczyny:
    -- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi.
    - Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania.
    - Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych.

    Skutki:
    - Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności.
    - Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje.
    - Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania.

    🕒 Kluczowe momenty:
    0:00 Wprowadzenie: RAG w LLM-ach
    3:48 Generowanie trafnych odpowiedzi przez LLM-y
    13:43 Odpowiedzialność za dane wejściowe
    20:44 Problemy z mechanicznym podziałem tekstu
    26:20 Osadzenie wektorowe i podobieństwo semantyczne
    37:51 Alternatywne podejście do RAG
    45:30 Ostrzeżenie przed nadmiernym komplikowaniem AI
    53:00 Podsumowanie i alternatywne podejście

    🧠 Dowiesz się:
    - Dlaczego klasyczne podejście do RAG często zawodzi
    - Jak LLM-y interpretują dostarczony kontekst
    - Jakie są pułapki przy implementacji RAG
    - Co to jest "mapa wiedzy" i jak może zrewolucjonizować AI

    Rozwiązanie:
    Należy odejść od mechanicznego podejścia do RAG i skupić się na:
    Głębokim zrozumieniu problemu biznesowego: Zdefiniowanie, co chcemy osiągnąć i jakie informacje są potrzebne do rozwiązania danego problemu.
    Manualnym zaprojektowaniu struktury danych: Ustalenie, w jaki sposób przechowywać dane, aby zachować ich sens i kontekst.
    Użyciu embeddingu jako narzędzia pomocniczego: Embedding powinien wspierać, a nie zastępować klasyczne metody wyszukiwania.
    Skoncentrowaniu się na jakości i aktualności danych: Zapewnienie, że dane są wiarygodne, aktualne i odpowiednio zabezpieczone.

    Korzyści:
    - Zwiększenie dokładności i spójności odpowiedzi.
    - Poprawa transparentności i audytowalności.
    - Obniżenie kosztów implementacji i utrzymania.
    - Spełnienie wymogów prawnych (GDPR, EU AI Act).

    Zamiast ślepo podążać za modnymi rozwiązaniami, należy skupić się na fundamentach - jakości danych, strukturze i zrozumieniu problemu biznesowego. Tylko takie podejście pozwoli wykorzystać pełen potencjał RAG i zbudować systemy oparte na LLM, które będą nie tylko efektowne, ale przede wszystkim efektywne.

    Jeśli interesujesz się przyszłością AI i jej praktycznym zastosowaniem w biznesie, ten odcinek jest obowiązkowy!

    👍 Polub ten odcinek i podziel się przynajmniej z jedną osobą (poleć, warto).

    🔗 Linki:
    https://biznesmysli.pl/rag-w-llm-dlaczego-popularne-rozwiazania-to-droga-donikad/

    Obserwuj mi na LinkedIn (wysyłaj też śmiało zaproszenie):
    https://www.linkedin.com/in/vladimiralekseichenko/

    📢 Podziel się tym odcinkiem z kolegami i znajomymi zainteresowanymi AI i machine learning!

    Przydatne publikacji:
    - https://arxiv.org/pdf/2005.11401
    - https://arxiv.org/pdf/2407.01219
    - https://arxiv.org/pdf/2406.04369
    - https://arxiv.org/pdf/2305.14283
    - https://arxiv.org/pdf/2007.01282

    Tagi:
    #ai #machinelearning #datascience #nlp #rag #llm #search #bestpractice

  • 🎙️ Gościem dzisiejszego odcinka jest Cezary Kujek, Product Manager w dziale Machine Learning Research w Allegro, specjalista od modeli generatywnych.

    Jedna z głównych myśli to, że umiejętność efektywnej komunikacji z modelami AI (prompt engineering) stanie się jedną z kluczowych kompetencji zawodowych, porównywalną do znajomości pakietu Office czy umiejętności posługiwania się mailem. Zwróć uwagę, że osobny zawód prompt engineering nie przetrwa na rynku biznesowym, ponieważ specjaliści w tej dziedzinie często nie posiadają wystarczającej wiedzy domenowej. Częściej bardziej opłaca się douczyć kogoś na miejscu do rozmowy z AI, niż w drugą stronę. Jest to efektywniejsze. Co ciekawe, korzystanie z AI nie sprawia, że człowiek przestaje myśleć (są też takie mity) - wręcz przeciwnie, uczy się nowych rzeczy i poszerza swoją wiedzę. AI to narzędzie, które pozwala nam szybciej się rozwijać i osiągać cele. Dlatego, ta umiejetność również dotyczy Ciebie!

    🔥 Zapisz się na listę chętnych szkolenia: "Jak rozmawiać ze sztuczną inteligencją? Praktyczne podejście". Zdobądź nową praktyczną umiejętność: https://bit.ly/3YqH2HD

    💡 Dowiedz się:
    - Jak tworzyć efektywne prompty dla modeli AI
    - Jakie są kluczowe parametry modeli generatywnych
    - Jak oszacować koszty i czas wykorzystania AI w biznesie
    - Dlaczego prompt engineering to nowa kluczowa umiejętność zawodowa

    🕒 Timecode:
    0:00 - Wprowadzenie i przedstawienie gościa
    5:02 - Jak rozmawiać ze sztuczną inteligencją?
    13:44 - Kluczowe elementy dobrego prompta
    17:18 - Tokeny i ich znaczenie w modelach AI
    27:53 - Trójkąt tokenów: koszt, czas, rezultat
    34:30 - Szacowanie kosztów wykorzystania AI w biznesie
    40:34 - Parametry modeli AI - temperatura i topP
    49:27 - Praktyczne zastosowania AI w codziennej pracy
    55:21 - Dlaczego umiejętność korzystania z AI staje się kluczowa?
    1:02:54 - Podsumowanie i pożegnanie

    🔗 Przydatne linki
    Czytać: https://biznesmysli.pl/jak-rozmawiac-ze-sztuczna-inteligencja/
    LinkedIn:
    - Vladimir: https://www.linkedin.com/in/vladimiralekseichenko
    - Cezary: https://www.linkedin.com/in/cezary-kuik
    - Publikacja
    RAG Does Not Work for Enterprises: https://arxiv.org/pdf/2406.04369

    O czym jeszcze rozmawialiśmy:
    - Modele AI mają zdolność zamieniania nieustrukturyzowanych danych w ustrukturyzowane, co jest przydatne np. przy tworzeniu notatek ze spotkań.
    - AI może pomagać w upraszczaniu skomplikowanych tekstów technicznych na bardziej zrozumiałe.
    - Modele generatywne mogą wcielać się w różne role (np. prezesa firmy), zadając krytyczne pytania i pomagając ulepszyć dokumenty biznesowe.
    - Korzystanie z AI do generowania pomysłów i pytań może znacząco podnieść jakość pracy i dokumentów.
    - Modele generatywne AI, takie jak ChatGPT czy Claude, stały się niezbędnym narzędziem w codziennej pracy dla wielu osób.

    📢 Poleć ten podcast znajomym, którzy interesują się AI i jej zastosowaniem w praktyce!
    #ai #sztucznainteligencja #promptengineering #genai #generativeai #machinelearning

  • Modeli LLM to aktualnie gorący temat. Aby efektywnie wdrożyć te modele w swojej firmie, konieczne jest stworzenie własnego leaderboardu, dopasowanego do konkretnych potrzeb biznesowych. Podpowiadam jak to zrobić, czyli od czego można zacząć (3 proste kroki). Choć istnieją zewnętrzne rozwiązania, to nie dają one pełnej kontroli i gwarancji trafności oceny. Warto czerpać z doświadczeń tradycyjnego ML, pamiętając jednak o zwiększonej złożoności procesu oceny LLM.

    ✅ Dlaczego wszystkie modele AI są błędne i jak to wpływa na biznes? 🤔
    ✅ Dlaczego też nie ma idealnych modeli LLM i jak wybrać ten "wystarczająco dobry" do swoich potrzeb?
    ✅ Jak ewoluowały benchmarki i metryki oceny modeli NLP?
    ✅ Dlaczego tak popularne metryki, np. takie jak MMLU, tracą na znaczeniu?
    ✅ Czym jest ChatbotArena i Hard Arena - innowacyjne podejścia do oceny AI?
    ✅Jakie pułapki kryją się w korzystaniu z gotowych leaderboardów i na co uważać?
    ✅ Dlaczego warto stworzyć własny leaderboard dopasowany do Twoich potrzeb biznesowych i jak to zrobić w 3 prostych krokach?
    ✅ Dodatkowe wskazówek i narzędzi, które ułatwią Ci ocenianie modeli LLM.

    Ten odcinek dostarczy Ci praktycznej wiedzy o tym, jak skutecznie oceniać i wybierać modele AI w praktyce.


    Tu możesz czytać: https://biznesmysli.pl/jaki-model-ai-wybrac-wyzwania-i-rozwiazania/
    Zapraszam też LinkedIn: https://www.linkedin.com/in/vladimiralekseichenko/
    Partnerem podcastu jest DataWorkshop.

    Zapraszam też na YouTube: https://youtu.be/eUIP2i0kxHo
    👍 Polubić ten film
    💬 Zostawić komentarz
    📢 Udostępnić go znajomym, którzy mogą być zainteresowani

    Subskrybuj kanał "DataWorksohp", aby być na bieżąco z praktycznym ML/AI! 🔔

    #ai #ml #leaderboard #benchmark #arena #llm #biznesmysli

  • 🎙️ Czy zdarza Ci się zastanawiać, jak powstają zaawansowane modele AI, takie jak ChatGPT? Czy wiesz, że trening takiego modelu może kosztować tyle, co luksusowy apartament w Warszawie (a w skali GPT nawet znacznie więcej)? A może ciekawi Cię, ile czasu zajmuje przygotowanie dużego modelu językowego? No właśnie! Tym zajmiemy się w 123. odcinku podcastu "Biznes Myśli", gdzie zgłębiamy tajniki fine-tuningu modeli LLM! Ale przejdziemy krok po kroku, aby dojść do etapu fine-tuning. Gościem dzisiejszego odcinka jest Remigiusz Kinas, ekspert AI i członek core teamu projektu SpeakLeash. Rozmawiamy o faktach i mitach związanych z treningiem modeli językowych. Kawał wiedzy dla Ciebie.

    W tym odcinku koncentrujemy się na wyjaśnieniu kluczowych etapów trenowania modeli LLM, takich jak pre-training, fine-tuning oraz alignment, oraz na omówieniu ich zastosowań i wyzwań.

    Dowiesz się:
    Jak wygląda proces trenowania dużych modeli językowych od podstaw?Czym jest fine-tuning i kiedy warto go stosować? Jakie są kluczowe etapy tworzenia modeli AI i dlaczego dane są tak ważne? Jakie superkomputery są używane do trenowania AI i ile to kosztuje? Jak wygląda praca nad polskim modelem językowym Bielik 2.0?Zapraszam!

    🕒 Najważniejsze fragmenty:

    00:01:52 - Remigiusz Kinas przedstawia się i opowiada o swoim doświadczeniu z ML/AI
    00:08:57 - Wyjaśnienie czym jest fine-tuning modeli na przykładzie Computer Vision
    00:14:23 - Omówienie różnych rodzajów modeli językowych (pre-trained, instruct, fine-tuned)
    00:30:00 - Czym jest T? Trilion czy bilion?
    00:31:05 - Ile danych potrzebujemy?
    00:43:53 - Cyfronet Helios, czyli na czym był trenowany Bielik?
    00:47:15 - Ile kart GPU ma Meta (Facebook)?
    00:27:34 - Dlaczego dane są najważniejsze w procesie trenowania modeli AI 00:53:00 - Ile kosztuje wytrenować model LLM?
    00:58:32 - Czy warto robić fine-tuning?
    01:09:07 - Co nowego w Bieliku 2?
    01:24:42 - Podsumowanie


    Czytać: https://biznesmysli.pl/fine-tuning-llm-fakty-i-mity/
    YouTube (ogłądać video): https://youtu.be/Kf55mex40-o

    LinkedIn:
    https://www.linkedin.com/in/remigiusz-kinas/https://www.linkedin.com/in/vladimiralekseichenko/


    Inne linki:
    https://ai.meta.com/blog/meta-llama-3/https://opencsg.com/datasets/AIWizards/Alpaca-CoThttps://top500.org/lists/green500/list/2024/06/https://github.com/meta-llama/llama/blob/main/MODEL_CARD.mdhttps://github.com/NVIDIA/Megatron-LM https://github.com/hiyouga/LLaMA-Factoryhttps://arxiv.org/pdf/2406.06608https://github.com/vllm-project/vllm
    W podcaście omówiono:
    Rodzaje modeli LLM:
    - Model bazowy (pre-trained): Posiada ogromną wiedzę, ale nie potrafi prowadzić konwersacji - służy do przewidywania następnego słowa.
    - Model instrukcyjny (instruct): Potrafi wykonywać polecenia i prowadzić konwersacje. Powstaje poprzez fine-tuning modelu bazowego.
    - Model po alignmencie: Model instrukcyjny dodatkowo "wygładzony" i dostosowany do preferowanego stylu konwersacji.

    Fazy trenowania modelu:
    - Pre-training: Najważniejsza faza, w której model nabywa wiedzę. Wymaga ogromnych zbiorów danych i jest bardzo kosztowna (rzędu setek tysięcy dolarów).
    - Fine-tuning: Dostrajanie modelu do konkretnych zadań. Wymaga mniejszych zbiorów danych i jest tańszy od pre-trainu.
    - Alignment: Dopasowanie stylu i sposobu odpowiedzi modelu. Wymaga najmniej danych i jest najtańszy.

    Dane:
    - Pre-training: Dane tekstowe w ogromnej ilości (terabajty), im więcej, tym lepiej. Ważna jest jakość danych.
    - Fine-tuning: Instrukcje dla modelu (polecenia i przykładowe odpowiedzi) w ilości od tysięcy do milionów.
    - Alignment: Pary odpowiedzi (preferowana i odrzucona) w ilości kilku tysięcy.

    Koszty:
    - Pre-training: Bardzo wysokie, porównywalne z ceną mieszkania w Warszawie.
    - Fine-tuning: Znacznie niższe od pre-trainu.
    - Alignment: Niskie, możliwe do przeprowadzenia na lokalnej maszynie.

    Mit fine-tuningu jako rozwiązania na wszystko:
    - W większości przypadków fine-tuning nie jest konieczny.
    - Lepiej skupić się na promptowaniu (zadawaniu precyzyjnych pytań) i technikach RAG (Retrieval Augmented Generation - wzbogacanie odpowiedzi o dane z zewnętrznych źródeł).
    - Fine-tuning może być przydatny w wąskich dziedzinach, dla specyficznych formatów odpowiedzi lub w celu zapewnienia bezpieczeństwa danych.

    Bielik 2.0: Nowa wersja polskiego modelu językowego.
    - Większy model (11 miliardów parametrów).
    - Dłuższy kontekst wejściowy (32 tysiące tokenów).
    - Wsparcie dla Function Calling (beta).
    - Uczenie wzmacniane (RLHF).
    - Więcej wersji kwantyzacyjnych.
    - Wsparcie dla VLLM.
    - Test na inteligencję emocjonalną (EQ Bench).
    - Planowana wersja multimodalna (tekst i obraz).





    #ai #genai #llm #podcast #machinelearning #datascience #finetuning

  • Tym razem będzie o mitach w AI. O mitach już nagrywałem ok. 4 lat temu w 55. odcinku podcastu Biznes Myśli, opublikowanym dokładnie w kwietniu 2019 roku, wtedy poruszyłem temat 10 mitów dotyczących sztucznej inteligencji, które w dużej mierze pozostają aktualne do dziś.I co znów o mitach? Tak, nawarstwiły się nowe. Tym razem skupimy się na mitach związanych z dużymi modelami językowymi (LLM - Large Language Models)

    https://biznesmysli.pl/7-mitow-o-sztucznej-inteligencji/

    Dlaczego warto posłuchać?
    Dowiesz się, jakie mity krążą na temat dużych modeli językowych (LLM) i dlaczego ChatGPT to nie jedyny gracz na rynku.Zrozumiesz różnicę między prototypem LLM a rozwiązaniem gotowym do wdrożenia - to kluczowe przy tworzeniu rozwiązań AI!Poznasz mechanikę halucynacji w LLM i jak sobie z nimi radzić. Nie uwierzysz, jak fascynujące jest to zjawisko!Odkryjesz, jakie wyzwania wiążą się z długimi oknami kontekstowymi i dlaczego więcej nie zawsze znaczy lepiej.Zrozumiesz, że reprezentacja wektorowa (embedding) nie jest idealna. Ma zalety, ale też ograniczenia.Dowiesz się, jak AI wpłynie na rynek pracy i dlaczego warto traktować je jako narzędzie, a nie zagrożenie.Zainspiruje Cię (mam nadzieje) do ciągłego rozwoju i wyprzedzania zmian w świecie, który ewoluuje w zawrotnym tempie!Podam, jak zwykle, konkretne przykłady lub analogii. I staram się tłumaczyć zawiłości techniczne prostym językiem.


    Najważniejsze tematy poruszone w tym odcinku:
    00:04:50 - Powtórka i umówienie 10 mitów na temat AI (odcinek BM55)
    00:05:55 - Porównanie trendów ChatGPT i AI, ChatGPT przyrównywane do AI
    00:10:34 - Otwarty nie zawsze znaczy możliwy do komercyjnego wykorzystania
    00:37:17 - Ryzyko związane z fine-tuningiem modeli
    00:43:12 - Ostrożne podejście do dostrajania modeli
    00:48:11 - Ograniczenia reprezentacji wektorowej (embedding)
    01:03:13 - Czym naprawdę jest halucynacja w kontekście LLM?
    01:04:47 - Wpływ AI na rynek pracy
    01:05:59 - Filozoficzne rozważania o świadomości AI i człowieka

  • Czy wiesz, że obecna technologia osiągnęła już poziom 9-9,5 na 10 w obszarze odpowiadania na pytania? W dzisiejszym odcinku zagłębiamy się w świat question answering, czyli technologii, która pozwala maszynom rozumieć pytania i udzielać na nie trafnych odpowiedzi. Gościem jest Piotr Rybak. W rozmowie z Vladimirem Alekseichenko omowiają kluczowe aspekty rozwoju systemów odpowiadających na pytania oraz jakie wyzwania stoją przed twórcami tych rozwiązań.

    Dowiesz się m.in.:
    1. Jakie rewolucyjne zmiany zaszły w ostatnich latach w wyszukiwaniu dokumentów i wyciąganiu odpowiedzi
    2. Jaką rolę odgrywają duże modele językowe (LLM) w question answering?
    3. Dlaczego jakość i ilość danych treningowych ma kluczowe znaczenie?
    4. Jakie są kluczowe etapy budowy systemu question answering?
    5. Z jakich kluczowych komponentów składa się system question answering?
    6. Jak dobrać odpowiednie dokumenty źródłowe i zadbać o kwestie dostępu i poufności
    7. Jakie triki można zastosować przy generowaniu finalnej odpowiedzi z dużego kontekstu?

    W trakcie rozmowy poruszamy:

    Przemiany, jakie zaszły w technologii question answering, to wynik zastosowania nowoczesnych sieci neuronowych i generatywnych modeli językowych. Dzisiejsze systemy są niezwykle skuteczne, umożliwiając użytkownikom szybkie uzyskanie odpowiedzi na pytania bez konieczności przeszukiwania setek dokumentów.

    Jakość danych treningowych ma ogromne znaczenie. Im lepsze dane, tym bardziej precyzyjne odpowiedzi generuje system. Kluczowe jest też odpowiednie przygotowanie i przetworzenie tych danych, co wpływa na efektywność całego procesu.

    Rozmowa dotyczy również praktycznych aspektów budowy systemów question answering - od wyboru odpowiednich dokumentów źródłowych, przez ekstrakcję i preprocessing danych, aż po wybór modelu wyszukiwania i generowania odpowiedzi. Istotne jest, aby systemy te były użyteczne nawet przy niepełnej dokładności, co może znacząco zaoszczędzić czas użytkowników.

    Mimo rozwoju LLM, kluczowe kompetencje w budowaniu systemów AI pozostają takie same - liczy się dobranie odpowiednich narzędzi do realizacji celów i myślenie produktowe.

    Na koniec, Piotr i Vladimir omawiają znaczenie precyzyjnego zdefiniowania celów i wymagań przed rozpoczęciem budowy systemu. Bez tego, nawet najlepsze technologie mogą nie przynieść oczekiwanych rezultatów.

    Subskrybuj kanał, aby być na bieżąco z najnowszymi trendami w świecie technologii i sztucznej inteligencji! Postaw też dobrą ocenę :).🔔

  • 🎙️ Witaj w 120 odcinku podcastu "Biznes Myśli"! Dzisiaj zagłębiamy się w temat wytrenowania własnych modeli LLM, czyli dużych modeli językowych, pod własnym dachem. Gościem odcinka jest Marek Kozłowski, ekspert od NLP (Natural Language Processing) i machine learning, pracujący w AI Labie w OPI (Ośrodku Przetwarzania i Informacji, Państwowy Instytut Badawczy).

    W tym odcinku rozmawiamy o:
    Dlaczego trenowanie własnych modeli LLM jest tak ważne dla rozwoju Polski? Marek wyjaśnia, dlaczego własne modele LLM mogą być kluczem do rozwoju nowoczesnej gospodarki, innowacyjności i kompetencji.Jak wygląda proces trenowania modeli LLM? Marek krok po kroku omawia poszczególne etapy uczenia, od pre-trainingu, przez fine-tuning, aż do procesu ewaluacji i walidacji. - Jakie są konkretne wyzwania i możliwości związane z budową ekosystemu modeli LLM w Polsce? Marek omawia inicjatywy takie jak konsorcjum PLLuM i stowarzyszenie Speaklish, a także dzieli się swoimi przemyśleniami na temat potencjału rozwoju modeli LLM w naszym kraju.Kluczowe punkty odcinka:
    LLM to coś w rodzaju nowoczesnej waluty: posiadanie własnego modelu LLM może dać przewagę konkurencyjną i wpłynąć na rozwój gospodarki i innowacyjności.Dane to klucz: jakość i ilość danych są kluczowymi elementami determinującymi jakość modeli LLM.Ekosystem jest ważniejszy niż pojedynczy model: budowanie ekosystemu modeli LLM, z odpowiednim zestawem danych, narzędzi i kompetencji, jest niezbędne do osiągnięcia sukcesu.Dodatkowo:
    Marek opowiada o doświadczeniach i projektach realizowanych w AI Labie w OPI, w tym o systemie antyplagiatowym JSA i modelach Qra i MMLW.Podnosi kwestię otwartości modeli LLM i podkreśla, że kluczowe jest tworzenie modeli dostępnych dla wszystkich.Zapraszam do wysłuchania tego inspirującego odcinka!


    Spis treści:
    00:00:00 - Wprowadzenie
    00:01:35 - Kim jest Marek Kozłowski?
    00:03:35 - OPI i AI Lab - co to jest i czym się zajmuje?
    00:10:40 - Historia deep learningu i NLP w Polsce
    00:12:40 - Jakie książki Marek ostatnio czytał?
    00:16:10 - OPI - software house I laboratoria
    00:20:00 - Projekty zrealizowane przez AI Lab w OPI
    00:25:00 - Dane i ich znaczenie dla budowy modeli LLM
    00:30:10 - Definicja modeli LLM
    00:33:00 - Reprezentacyjne i generatywne modele LLM
    00:37:00 - OpenAI i Google - historia sukcesu i porażki
    00:40:00 - Dane jako klucz do sukcesu
    00:41:35 - Etapy uczenia modeli LLM
    00:53:00 - Dlaczego warto budować modele LLM pod własnym dachem?
    00:56:00 - Konsorcjum PLLuM
    01:06:00 - Ekosystem usług oparty o AI
    01:14:00 - Racją stanu
    01:16:00 - Przyszłość AI w Polsce
    01:17:00 - Otwartość modeli LLM
    01:17:40 - Podsumowanie i zaproszenie do kolejnych odcinków




    Pamiętaj o:
    Subskrybowaniu kanału!Komentarzach i ocenie odcinka.Udostępnieniu podcastu innym!Do zobaczenia w kolejnym odcinku Biznes Myśli!

    LinkedIn:
    Marek Kozłowski: https://www.linkedin.com/in/marek-kozłowski-phd-97a20945/Vladimir Alekseichenko: https://www.linkedin.com/in/vladimiralekseichenko/Link: https://biznesmysli.pl/sztuczna-inteligencja-pod-wlasnym-dachem
    Newsletter: https://biznesmysli.pl/newsletter

    Modele:
    https://huggingface.co/core42/jais-13bhttps://huggingface.co/OPI-PG/Qra-13b https://huggingface.co/speakleash/Bielik-7B-v0.1Benchmarks:
    KLEJ: https://klejbenchmark.com/leaderboard/MTEB: https://huggingface.co/spaces/mteb/leaderboard

  • W tym odcinku porozmawiamy sobie o rolach i kompetencjach w projektach z uczeniem maszynowym w roli głównej. Temat zwykle zamyka się na “Data Scientist” lub “ML Engineer”, ale jednak na tym nie kończą się kompetencje potrzebne, aby projekt z sukcesem zacząć, przeprowadzić i co najważniejsze zakończyć.

    Dlatego porozmawiamy o tym:

    1. Kogo potrzebujesz w projekcie ML, aby iść do przodu - wprowadzenie
    2. Kto łączy DS / ML z biznesem?
    3. Jakie kompetencje są potrzebne, aby wystartować?
    4. Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie?

  • Witaj w kolejnym odcinku serii: “Machine Learning - od pomysłu do wdrożenia”

    W tym odcinku porozmawiamy o tym, co i jak warto mierzyć w projektach ML.
    Postaram się odpowiedzieć na pytania:

    1. Co to są metryki sukcesu i dlaczego są podstępne?
    2. Dlaczego biznesowe metryki sukcesu są takie ważne w projektach ML?
    3. Jak biznesowe metryki sukcesu wpływają na techniczne?
    4. Jakie pytania warto zadać rozmawiając o metrykach?
    5. O częstych błędach popełnianych na tym etapie i ich wpływie na cały projekt?

  • Seria: Machine Learning - od pomysłu do wdrożenia

    Pytania, na które będziemy szukać odpowiedzi w ciągu najbliższej godziny:

    1) Co potrafi ML, a czego nie potrafi?
    2) Jakie wartości może przynieść ML w Twojej firmie?
    3) W jakich branżach ML daje przewagę?
    4) Jak szukać obszarów w Twojej firmie, gdzie uczenie maszynowe może pomóc?
    5) Jak postawić pierwszy krok, aby zbadać potencjał, czy ML daje wartość?

    Wysłuchaj od początku do końca tego odcinka, aby dowiedzieć się, jak walidować swoje pomysły na ML, poznasz 7 podstawowych filtrów, które pomogą Ci uniknąć problemów na starcie.

    W następnych odcinkach tej serii będziemy stawiać kolejne kroki, które pozwolą Ci poznać lepiej ważne momenty i zagadnienia projektu ML. Bądź z nami do końca, aby zdobyć ogromną dawkę wiedzy i inspiracji.

  • Czy zastanawiasz się, jak zmieni się Data Science i Machine Learning w ciągu najbliższego roku, 5 czy 10 lat? Czy uda się nam wejść na kolejny poziom, który dokona rewolucji? Jaki mamy potencjał i marzenia?

    A najważniejsze pytanie, czy to wpłynie na Twoją branżę i karierę zawodową?

    Dziś zapraszam Cię do swego rodzaju podsumowania roku 2021 i refleksji, co może wydarzyć się w przyszłości. Posłuchaj 5 wypowiedzi ekspertów podcastu Biznes Myśli z 2021 i dowiedz się, co przewidują, jakie widzą możliwości i potencjały w najbliższych latach.

  • Uczenie maszynowe nie jest skierowane do jednego konkretnego zawodu. To warstwa, która przecina wiele, o ile nie wszystkie, dziedziny w mniejszym lub większym stopniu. To również będzie dotyczyć Ciebie.

    Dzisiaj zebrałem trzy opinie moich świeżo upieczonych absolwentów kursu „Praktyczne uczenie maszynowe od podstaw”, aby pokazać Ci, jak różne profile mają te osoby, ale każdy znalazł coś wartościowego dla siebie w tym kursie.

    Dzielę się tutaj opiniami kursantów, aby pokazać ich perspektywę, ich historie oraz wrażenia. Może zainspirują kogoś, by samemu spróbować swoich sił w uczeniu maszynowym.

  • Co musisz wiedzieć na temat transformacji cyfrowej?
    Jakich błędów nie popełniać na początku? Im więcej danych tym lepiej, czy ilość nie ma znaczenia? Jakie dane warto digitalizować?
    Na te i inne pytania znajdziesz odpowiedź w tym odcinku podcastu.

  • Gościem odcinka jest Konrad Banachewicz, który od 18 lat mieszka w Holandii, a pochodzi z Polski. Jeżeli zajmujesz się Uczeniem Maszynowym, Data Science, posłuchaj! Myślę, że będziesz mógł sobie zaoszczędzić miesiące, a może nawet lata. Dowiesz się m.in. dlaczego ludzie zakochują się w Deep Learning i jak nieodwzajemniona może być ta miłość. Porozmawiamy także o jakości danych i wielu innych tematach z praktycznej strony.

  • Dane zawierają w sobie ogrom informacji, jednak kluczem do tego jest ich właściwa interpretacja. Pomocna temu będzie wizualizacja danych i to jest właśnie temat mojej rozmowy z Anną Kozak. Z jednej strony jest wykładowcą, skończyła Politechnikę na kierunku matematyka stosowana. Z drugiej strony pracuje jako Data Scientist, więc jest w zawodzie. Z trzeciej strony angażuje się w przeróżne inicjatywy, aby szerzyć wiedzę. Wykonuje sporo różnych rzeczy, ale jedna, która się bardzo wyróżnia, to wizualizacja. Jest wielką entuzjastką wizualizacji.

    Ania zajmuje się również dziedziną XAI albo interpretowalność modeli czy sztucznej inteligencji. O tym postaram się nagrać osobny odcinek. Nie chciałem się za bardzo rozdrabniać, bo to jest wątek nieco szerszy, który zasługuje co najmniej na własny odcinek. Dzisiaj natomiast porozmawiamy o tym, czym jest zły wykres, jak zrobić poprawny oraz czy można robić Data Science na wysokim poziomie bez wizualizacji.

  • Jak wygląda praca Product Managera w zespole AI? Na to i wiele innych pytań odpowie gość tej rozmowy - Ola Możejko.
    Historia Oli jest bardzo ciekawa - skończyła studia matematyczne, później pracowała jako Machine Learning Engineer, Data Scientist i niedawno zdecydowała się zmienić tę ścieżkę kariery i zostać Product Managerem. Porozmawiamy o tym, skąd pomysł na taką zmianę, ale także o sztuce zarządzania projektami, roli Product Managera w zespole AI i nie tylko. Zaczynamy!