Episoder

  • Tym razem będzie o mitach w AI. O mitach już nagrywałem ok. 4 lat temu w 55. odcinku podcastu Biznes Myśli, opublikowanym dokładnie w kwietniu 2019 roku, wtedy poruszyłem temat 10 mitów dotyczących sztucznej inteligencji, które w dużej mierze pozostają aktualne do dziś.I co znów o mitach? Tak, nawarstwiły się nowe. Tym razem skupimy się na mitach związanych z dużymi modelami językowymi (LLM - Large Language Models)

    https://biznesmysli.pl/7-mitow-o-sztucznej-inteligencji/

    Dlaczego warto posłuchać?
    Dowiesz się, jakie mity krążą na temat dużych modeli językowych (LLM) i dlaczego ChatGPT to nie jedyny gracz na rynku.Zrozumiesz różnicę między prototypem LLM a rozwiązaniem gotowym do wdrożenia - to kluczowe przy tworzeniu rozwiązań AI!Poznasz mechanikę halucynacji w LLM i jak sobie z nimi radzić. Nie uwierzysz, jak fascynujące jest to zjawisko!Odkryjesz, jakie wyzwania wiążą się z długimi oknami kontekstowymi i dlaczego więcej nie zawsze znaczy lepiej.Zrozumiesz, że reprezentacja wektorowa (embedding) nie jest idealna. Ma zalety, ale też ograniczenia.Dowiesz się, jak AI wpłynie na rynek pracy i dlaczego warto traktować je jako narzędzie, a nie zagrożenie.Zainspiruje Cię (mam nadzieje) do ciągłego rozwoju i wyprzedzania zmian w świecie, który ewoluuje w zawrotnym tempie!Podam, jak zwykle, konkretne przykłady lub analogii. I staram się tłumaczyć zawiłości techniczne prostym językiem.


    Najważniejsze tematy poruszone w tym odcinku:
    00:04:50 - Powtórka i umówienie 10 mitów na temat AI (odcinek BM55)
    00:05:55 - Porównanie trendów ChatGPT i AI, ChatGPT przyrównywane do AI
    00:10:34 - Otwarty nie zawsze znaczy możliwy do komercyjnego wykorzystania
    00:37:17 - Ryzyko związane z fine-tuningiem modeli
    00:43:12 - Ostrożne podejście do dostrajania modeli
    00:48:11 - Ograniczenia reprezentacji wektorowej (embedding)
    01:03:13 - Czym naprawdę jest halucynacja w kontekście LLM?
    01:04:47 - Wpływ AI na rynek pracy
    01:05:59 - Filozoficzne rozważania o świadomości AI i człowieka

  • Czy wiesz, że obecna technologia osiągnęła już poziom 9-9,5 na 10 w obszarze odpowiadania na pytania? W dzisiejszym odcinku zagłębiamy się w świat question answering, czyli technologii, która pozwala maszynom rozumieć pytania i udzielać na nie trafnych odpowiedzi. Gościem jest Piotr Rybak. W rozmowie z Vladimirem Alekseichenko omowiają kluczowe aspekty rozwoju systemów odpowiadających na pytania oraz jakie wyzwania stoją przed twórcami tych rozwiązań.

    Dowiesz się m.in.:
    1. Jakie rewolucyjne zmiany zaszły w ostatnich latach w wyszukiwaniu dokumentów i wyciąganiu odpowiedzi
    2. Jaką rolę odgrywają duże modele językowe (LLM) w question answering?
    3. Dlaczego jakość i ilość danych treningowych ma kluczowe znaczenie?
    4. Jakie są kluczowe etapy budowy systemu question answering?
    5. Z jakich kluczowych komponentów składa się system question answering?
    6. Jak dobrać odpowiednie dokumenty źródłowe i zadbać o kwestie dostępu i poufności
    7. Jakie triki można zastosować przy generowaniu finalnej odpowiedzi z dużego kontekstu?

    W trakcie rozmowy poruszamy:

    Przemiany, jakie zaszły w technologii question answering, to wynik zastosowania nowoczesnych sieci neuronowych i generatywnych modeli językowych. Dzisiejsze systemy są niezwykle skuteczne, umożliwiając użytkownikom szybkie uzyskanie odpowiedzi na pytania bez konieczności przeszukiwania setek dokumentów.

    Jakość danych treningowych ma ogromne znaczenie. Im lepsze dane, tym bardziej precyzyjne odpowiedzi generuje system. Kluczowe jest też odpowiednie przygotowanie i przetworzenie tych danych, co wpływa na efektywność całego procesu.

    Rozmowa dotyczy również praktycznych aspektów budowy systemów question answering - od wyboru odpowiednich dokumentów źródłowych, przez ekstrakcję i preprocessing danych, aż po wybór modelu wyszukiwania i generowania odpowiedzi. Istotne jest, aby systemy te były użyteczne nawet przy niepełnej dokładności, co może znacząco zaoszczędzić czas użytkowników.

    Mimo rozwoju LLM, kluczowe kompetencje w budowaniu systemów AI pozostają takie same - liczy się dobranie odpowiednich narzędzi do realizacji celów i myślenie produktowe.

    Na koniec, Piotr i Vladimir omawiają znaczenie precyzyjnego zdefiniowania celów i wymagań przed rozpoczęciem budowy systemu. Bez tego, nawet najlepsze technologie mogą nie przynieść oczekiwanych rezultatów.

    Subskrybuj kanał, aby być na bieżąco z najnowszymi trendami w świecie technologii i sztucznej inteligencji! Postaw też dobrą ocenę :).🔔

  • Manglende episoder?

    Klik her for at forny feed.

  • 🎙️ Witaj w 120 odcinku podcastu "Biznes Myśli"! Dzisiaj zagłębiamy się w temat wytrenowania własnych modeli LLM, czyli dużych modeli językowych, pod własnym dachem. Gościem odcinka jest Marek Kozłowski, ekspert od NLP (Natural Language Processing) i machine learning, pracujący w AI Labie w OPI (Ośrodku Przetwarzania i Informacji, Państwowy Instytut Badawczy).

    W tym odcinku rozmawiamy o:
    Dlaczego trenowanie własnych modeli LLM jest tak ważne dla rozwoju Polski? Marek wyjaśnia, dlaczego własne modele LLM mogą być kluczem do rozwoju nowoczesnej gospodarki, innowacyjności i kompetencji.Jak wygląda proces trenowania modeli LLM? Marek krok po kroku omawia poszczególne etapy uczenia, od pre-trainingu, przez fine-tuning, aż do procesu ewaluacji i walidacji. - Jakie są konkretne wyzwania i możliwości związane z budową ekosystemu modeli LLM w Polsce? Marek omawia inicjatywy takie jak konsorcjum PLLuM i stowarzyszenie Speaklish, a także dzieli się swoimi przemyśleniami na temat potencjału rozwoju modeli LLM w naszym kraju.Kluczowe punkty odcinka:
    LLM to coś w rodzaju nowoczesnej waluty: posiadanie własnego modelu LLM może dać przewagę konkurencyjną i wpłynąć na rozwój gospodarki i innowacyjności.Dane to klucz: jakość i ilość danych są kluczowymi elementami determinującymi jakość modeli LLM.Ekosystem jest ważniejszy niż pojedynczy model: budowanie ekosystemu modeli LLM, z odpowiednim zestawem danych, narzędzi i kompetencji, jest niezbędne do osiągnięcia sukcesu.Dodatkowo:
    Marek opowiada o doświadczeniach i projektach realizowanych w AI Labie w OPI, w tym o systemie antyplagiatowym JSA i modelach Qra i MMLW.Podnosi kwestię otwartości modeli LLM i podkreśla, że kluczowe jest tworzenie modeli dostępnych dla wszystkich.Zapraszam do wysłuchania tego inspirującego odcinka!


    Spis treści:
    00:00:00 - Wprowadzenie
    00:01:35 - Kim jest Marek Kozłowski?
    00:03:35 - OPI i AI Lab - co to jest i czym się zajmuje?
    00:10:40 - Historia deep learningu i NLP w Polsce
    00:12:40 - Jakie książki Marek ostatnio czytał?
    00:16:10 - OPI - software house I laboratoria
    00:20:00 - Projekty zrealizowane przez AI Lab w OPI
    00:25:00 - Dane i ich znaczenie dla budowy modeli LLM
    00:30:10 - Definicja modeli LLM
    00:33:00 - Reprezentacyjne i generatywne modele LLM
    00:37:00 - OpenAI i Google - historia sukcesu i porażki
    00:40:00 - Dane jako klucz do sukcesu
    00:41:35 - Etapy uczenia modeli LLM
    00:53:00 - Dlaczego warto budować modele LLM pod własnym dachem?
    00:56:00 - Konsorcjum PLLuM
    01:06:00 - Ekosystem usług oparty o AI
    01:14:00 - Racją stanu
    01:16:00 - Przyszłość AI w Polsce
    01:17:00 - Otwartość modeli LLM
    01:17:40 - Podsumowanie i zaproszenie do kolejnych odcinków




    Pamiętaj o:
    Subskrybowaniu kanału!Komentarzach i ocenie odcinka.Udostępnieniu podcastu innym!Do zobaczenia w kolejnym odcinku Biznes Myśli!

    LinkedIn:
    Marek Kozłowski: https://www.linkedin.com/in/marek-kozłowski-phd-97a20945/Vladimir Alekseichenko: https://www.linkedin.com/in/vladimiralekseichenko/Link: https://biznesmysli.pl/sztuczna-inteligencja-pod-wlasnym-dachem
    Newsletter: https://biznesmysli.pl/newsletter

    Modele:
    https://huggingface.co/core42/jais-13bhttps://huggingface.co/OPI-PG/Qra-13b https://huggingface.co/speakleash/Bielik-7B-v0.1Benchmarks:
    KLEJ: https://klejbenchmark.com/leaderboard/MTEB: https://huggingface.co/spaces/mteb/leaderboard

  • W tym odcinku porozmawiamy sobie o rolach i kompetencjach w projektach z uczeniem maszynowym w roli głównej. Temat zwykle zamyka się na “Data Scientist” lub “ML Engineer”, ale jednak na tym nie kończą się kompetencje potrzebne, aby projekt z sukcesem zacząć, przeprowadzić i co najważniejsze zakończyć.

    Dlatego porozmawiamy o tym:

    1. Kogo potrzebujesz w projekcie ML, aby iść do przodu - wprowadzenie
    2. Kto łączy DS / ML z biznesem?
    3. Jakie kompetencje są potrzebne, aby wystartować?
    4. Czego potrzebujesz, aby rozpędzić się z ML w Twojej firmie?

  • Witaj w kolejnym odcinku serii: “Machine Learning - od pomysłu do wdrożenia”

    W tym odcinku porozmawiamy o tym, co i jak warto mierzyć w projektach ML.
    Postaram się odpowiedzieć na pytania:

    1. Co to są metryki sukcesu i dlaczego są podstępne?
    2. Dlaczego biznesowe metryki sukcesu są takie ważne w projektach ML?
    3. Jak biznesowe metryki sukcesu wpływają na techniczne?
    4. Jakie pytania warto zadać rozmawiając o metrykach?
    5. O częstych błędach popełnianych na tym etapie i ich wpływie na cały projekt?

  • Seria: Machine Learning - od pomysłu do wdrożenia

    Pytania, na które będziemy szukać odpowiedzi w ciągu najbliższej godziny:

    1) Co potrafi ML, a czego nie potrafi?
    2) Jakie wartości może przynieść ML w Twojej firmie?
    3) W jakich branżach ML daje przewagę?
    4) Jak szukać obszarów w Twojej firmie, gdzie uczenie maszynowe może pomóc?
    5) Jak postawić pierwszy krok, aby zbadać potencjał, czy ML daje wartość?

    Wysłuchaj od początku do końca tego odcinka, aby dowiedzieć się, jak walidować swoje pomysły na ML, poznasz 7 podstawowych filtrów, które pomogą Ci uniknąć problemów na starcie.

    W następnych odcinkach tej serii będziemy stawiać kolejne kroki, które pozwolą Ci poznać lepiej ważne momenty i zagadnienia projektu ML. Bądź z nami do końca, aby zdobyć ogromną dawkę wiedzy i inspiracji.

  • Podcast Biznes Myśli po przerwie wraca w nowej odsłonie. Odsłuchaj tego odcinka i dowiedz się, jaką nową serię przygotowaliśmy dla Ciebie.

  • Czy zastanawiasz się, jak zmieni się Data Science i Machine Learning w ciągu najbliższego roku, 5 czy 10 lat? Czy uda się nam wejść na kolejny poziom, który dokona rewolucji? Jaki mamy potencjał i marzenia?

    A najważniejsze pytanie, czy to wpłynie na Twoją branżę i karierę zawodową?

    Dziś zapraszam Cię do swego rodzaju podsumowania roku 2021 i refleksji, co może wydarzyć się w przyszłości. Posłuchaj 5 wypowiedzi ekspertów podcastu Biznes Myśli z 2021 i dowiedz się, co przewidują, jakie widzą możliwości i potencjały w najbliższych latach.

  • Uczenie maszynowe nie jest skierowane do jednego konkretnego zawodu. To warstwa, która przecina wiele, o ile nie wszystkie, dziedziny w mniejszym lub większym stopniu. To również będzie dotyczyć Ciebie.

    Dzisiaj zebrałem trzy opinie moich świeżo upieczonych absolwentów kursu „Praktyczne uczenie maszynowe od podstaw”, aby pokazać Ci, jak różne profile mają te osoby, ale każdy znalazł coś wartościowego dla siebie w tym kursie.

    Dzielę się tutaj opiniami kursantów, aby pokazać ich perspektywę, ich historie oraz wrażenia. Może zainspirują kogoś, by samemu spróbować swoich sił w uczeniu maszynowym.

  • Co musisz wiedzieć na temat transformacji cyfrowej?
    Jakich błędów nie popełniać na początku? Im więcej danych tym lepiej, czy ilość nie ma znaczenia? Jakie dane warto digitalizować?
    Na te i inne pytania znajdziesz odpowiedź w tym odcinku podcastu.

  • Gościem odcinka jest Konrad Banachewicz, który od 18 lat mieszka w Holandii, a pochodzi z Polski. Jeżeli zajmujesz się Uczeniem Maszynowym, Data Science, posłuchaj! Myślę, że będziesz mógł sobie zaoszczędzić miesiące, a może nawet lata. Dowiesz się m.in. dlaczego ludzie zakochują się w Deep Learning i jak nieodwzajemniona może być ta miłość. Porozmawiamy także o jakości danych i wielu innych tematach z praktycznej strony.

  • Dane zawierają w sobie ogrom informacji, jednak kluczem do tego jest ich właściwa interpretacja. Pomocna temu będzie wizualizacja danych i to jest właśnie temat mojej rozmowy z Anną Kozak. Z jednej strony jest wykładowcą, skończyła Politechnikę na kierunku matematyka stosowana. Z drugiej strony pracuje jako Data Scientist, więc jest w zawodzie. Z trzeciej strony angażuje się w przeróżne inicjatywy, aby szerzyć wiedzę. Wykonuje sporo różnych rzeczy, ale jedna, która się bardzo wyróżnia, to wizualizacja. Jest wielką entuzjastką wizualizacji.

    Ania zajmuje się również dziedziną XAI albo interpretowalność modeli czy sztucznej inteligencji. O tym postaram się nagrać osobny odcinek. Nie chciałem się za bardzo rozdrabniać, bo to jest wątek nieco szerszy, który zasługuje co najmniej na własny odcinek. Dzisiaj natomiast porozmawiamy o tym, czym jest zły wykres, jak zrobić poprawny oraz czy można robić Data Science na wysokim poziomie bez wizualizacji.

  • Jak wygląda praca Product Managera w zespole AI? Na to i wiele innych pytań odpowie gość tej rozmowy - Ola Możejko.
    Historia Oli jest bardzo ciekawa - skończyła studia matematyczne, później pracowała jako Machine Learning Engineer, Data Scientist i niedawno zdecydowała się zmienić tę ścieżkę kariery i zostać Product Managerem. Porozmawiamy o tym, skąd pomysł na taką zmianę, ale także o sztuce zarządzania projektami, roli Product Managera w zespole AI i nie tylko. Zaczynamy!

  • Ile eksperymentów w tygodniu udaje Ci się przeprowadzić?

    W tym odcinku porozważamy o eksperymentowaniu i o tym, dlaczego odgrywa ono kluczową rolę w Machine Learning.

    Dodatkowo dowiesz się, jakie prowadzę własne eksperymenty, jak może Ci to pomóc. Mam też dla Ciebie pracę domową i przydatne punkty, które pomogą Ci zarządzać eksperymentami. Zaczniemy filozoficznie, ale jak zwykle skończymy praktycznie ;)

  • Dzisiejszym gościem jest Mirosław Mamczur. Mirek już kiedyś był w odcinku, ale to była króciutka wypowiedź tuż po kursie, bo Mirek jest absolwentem kursu "Praktyczne uczenie maszynowe od podstaw". To była pierwsza edycja. Dla mnie, dla DataWorkshop i dla Mirka był to pierwszy kurs, w którym wziął udział. Opowiadał, że się wahał czy warto, czy nie, ale potem zdecydował się i na tym wiele skorzystał.


    Dziś porozmawiamy o temacie ML & Cyber Security i rozwoju od analityka danych do Data Scientist na konkretnym przykładzie. Poznaj historię Mirka!

  • Będziemy rozmawiać o nieruchomościach. Dzisiejszym gościem jest Filip Finfando, który pracuje w SonarHome jako Lead ML Engineer. Co to jest za firma? Jeżeli słuchasz podcastu Biznes Myśli od samego początku to był czwarty odcinek, gdzie opowiadałem różne przypadki i jednym z nich był właśnie Opendoor. To jest firma w Stanach Zjednoczonych, która wystartowała najpierw w Arizonie. Oferowali oni usługę, dzięki której możesz szybko kupować nieruchomości. Zdejmowali cały ciężar z osób, które to nabyły. Wtedy powiedziałem, że nie kojarzę ani jednej firmy, która w Polsce zrobiłaby coś podobnego. Już jest, posłuchaj :)

  • Tym razem mam dla Ciebie nieco inny podcast niż zazwyczaj. Jest to pewien eksperyment. Polega on na tym, że Kajetan Duszyński, który prowadzi podcast Backend na froncie, zaprosił mnie do swojego podcastu, a ja pomyślałem, że warto również opublikować to u mnie.

    Dotychczas miałem dwie możliwości: albo głównie ja zadaje pytania, albo prowadzę monolog. Pomyślałem, że fajnie byłoby, żeby ktoś, kto ma trochę inne doświadczenie (programisty), wyciągnął tym razem ze mnie może nieco mniej oczywiste tematy i opinie. Człowiek jest bardzo subiektywny. Dzięki takim eksperymentom będę w stanie wyciągnąć więcej ukrytych warstw.

    Ten odcinek będzie bardzo przydatny przede wszystkim dla programistów. W szczególności jeżeli mówimy o programistach .NET, C#, bo Kajetan właśnie w tym się specjalizuje.

  • Jak nazywać rzeczy i dlaczego to jest istotne w projektach Machine Learning? Jakie są dobre praktyki w ML i czego można się nauczyć w chińskiej firmie?


    Gościem odcinka jest Marcina Możejko. To jest bardzo ciekawy, pozytywny człowiek. Marcin ma bogate doświadczenie zawodowe – z jednej strony twarde, wiedza matematyczna, z drugiej strony programistyczne, a z trzeciej strony to wszystko jeszcze łączy Data Science jako inżynier i próbuje być na krawędzi tych światów, które wcale nie jest tak łatwo połączyć.

  • Gościem dzisiejszego odcinka jest Kamil Krzyk - Machine Learning Engineer, który podzieli się z nami swoimi przemyśleniami z codzienności specjalisty od Machine Learning. Trafne spostrzeżenia Kamila ukazują szereg wyzwań i możliwości, które dziś stoją przed osobami, które już rozwijają się bądź chcą stawiać zawodowe kroki w branży Data Science & Machine Learning.

  • W uczeniu maszynowym istnieje wiele różnych rozwiązań i są grube książki, które opisują je wszystkie, ale z grubsza rzecz ujmując jest kilka rzeczy, które trzeba poznać.

    Jedną z nich jest na pewno Performance i Transformery, który zostały stworzone z myślą o usprawnieniach NLP, czyli dziedziny nauki i technologii poświęconej przetwarzaniu języka naturalnego, ale w tej chwili ich wykorzystanie jest znacznie szersze.

    Moim gościem jest Krzysztof Choromański, który zrobił doktorat na Uniwersytecie w Kolumbii. Pracuje już od 7 lat w Google Brain Robotics. Jest autorem ciekawych publikacji naukowych i ma wiele wartościowego do powiedzenia w temacie dzisiejszego odcinka.