OpenAI i MS robią rewolucję - Michał Furmankiewicz (Microsoft) EM#169 - podcast episode cover

OpenAI i MS robią rewolucję - Michał Furmankiewicz (Microsoft) EM#169

Jan 31, 202455 minSeason 9Ep. 175
--:--
--:--
Download Metacast podcast app
Listen to this episode in Metacast mobile app
Don't just listen to podcasts. Learn from them with transcripts, summaries, and chapters for every episode. Skim, search, and bookmark insights. Learn more

Episode description

Ten odcinek pozwoli Ci zajrzeć w rewolucyjne zmiany, jakie Microsoft i OpenAI przynoszą w dziedzinie sztucznej inteligencji (AI). Opowie o nich nasz gość, który umie pracować w światowej korporacji i jednocześnie fascynować się połączeniem technologii i biznesu jak prawdziwy startuper.

A dodatkowo patrzy na rezultaty jak przedsiębiorca.

Ciekawym zagadnieniem jest wyzwanie dotyczące danych i kosztu ich pozyskania, ale także potrzeba inwestycji w algorytmy oraz znaczenie wartości i jakości danych w systemach enterprise'owych. To podejście jest niezwykle istotne w kontekście wykorzystania AI w biznesie, gdzie konkretne, wartościowe dane są kluczowe dla skutecznej analizy i podejmowania decyzji.

A jak już mówimy o skalowalności, to od razu pojawiają się wyzwania dotyczące autentyczności czy jakości danych. Czy naprawdę potrzebujemy systemu z danymi bankowymi z lat sześćdziesiątych? To zagadnienie wydaje się krytyczne w kontekście rozwoju AI, ponieważ zaufanie do używanych danych jest kluczowe dla skuteczności i uczciwości działania systemów opartych na sztucznej inteligencji. Nie chcemy mieć danych słabej jakości, bo zawsze i wszędzie działa zasada: jak sobie pościelesz, tak się wyśpisz.

Porozmawiamy też o tym, jak działa infrastruktura danych, co daje ona biznesowi i jak AI może pomóc utrzymać ciepło w domu. W tym odcinku uzyskasz obraz zmian, który wprowadza 930 startupów pod szyldem Microsoft.

Na końcu podcastu Michał poleca kilka ciekawych artykułów, aby zrozumieć, gdzie jesteśmy z AI i co jest tylko buzzwordem.

Jak AI pomaga w biznesie

160 stron gęstej informacji o zastosowaniach modeli graficznych

 

1 - Intro (00:01:06) 2 - Z korpo na swoje i z powrotem (00:01:32) 3 - OpenAI i Microsoft (00:07:11) 4 - 930 startupów w jednym Microsoft (00:09:53) 5 - Chmura od wewnątrz (00:12:16) 6 - Walka o serwery (00:17:10) 7 - Co zrobić z cyfrowymi śmieciami (00:21:55) 8 - Kilka case'ów AI (00:26:18) 9 - Ludzie i AI (00:35:59) 10 - Czy AGI w ogóle ma sens (00:43:29) 11 - Patrzenie w przyszłość AI (00:48:55)

 

Muzyka: Kevin MacLeod Werq Kevin MacLeod (incompetech.com)

Licensed under Creative Commons: By Attribution 4.0 License/mix by Jedrzej Paulus https://creativecommons.org/licenses/by/4.0/

Oceń nasz podcast na Apple Podcasts: https://bit.ly/EscolaMobileIT

Transcript

Z Microsoftu na swoje i z powrotem. Ten odcinek pozwoli Ci zajrzeć w rewolucyjne zmiany, jakie Microsoft i OpenAI przynoszą w dziedzinie sztucznej inteligencji. Opowie o nich nasz gość, który umie pracować w światowej korporacji i jednocześnie fascynować się połączeniem technologii i biznesu jak prawdziwy startuper.

Na wszystko patrzy jak przedsiębiorca. Ciekawym zagadnieniem jest wyzwanie dotyczące kosztu danych oraz ich pozyskania, ale także potrzeba inwestycji w algorytmy oraz znaczenie wartości i jakości danych w systemach enterprise'owych. Porozmawiamy o infrastrukturze danych, co ona daje biznesowi i jak AI może pomóc utrzymać ciepło w Twoim domu. Wszystko to wprowadza 930 startupów pod szyldem Microsoft. Microsoft.

Jeśli chcesz wzmocnić firmę z pomocą AI, zbudować aplikację mobilną lub webową wejdź na naszą stronę escola.pl. W prawym górnym rogu kliknij wyceń projekt i daj nam znać jak możemy Ci pomóc. Dzień dobry, dzień dobry, to jest Eskola Mobile Live. Dzisiaj odcinek specjalny dla mnie, bo pierwszy z Teneryfy.

Mam nadzieję, że nic tutaj, żadna sieć, która przesyła nas między Teneryfą, Stanami Zjednoczonymi i Polską, nas nam nie utrudni, a moim gościem jest właśnie człowiek, który ma na to pewien wpływ, bo ma globalną rolę w Microsoftzie. Cześć Michał. Dzień dobry, cześć wszystkim. Michał Furmankiewicz, człowiek, który ma bardzo ciekawą historię, jak na człowieka z tak dużej korporacji.

Chciałbym Michał, żebyś też powiedział o swoim ciekawym backgroundzie, że byłeś najpierw w różnych korporacjach, potem długo w Microsoftzie, potem byłeś przedsiębiorcą i znów jesteś w Microsoftzie. Jak byś mógł o tym powiedzieć, bo to jest ciekawy wątek dla osób, które nas słuchają zarówno ze środowiska przedsiębiorców, jak i właśnie korporacji, że tak można.

Można, można. Tym bardziej, że jeżeli się lubi swoją pracę, to ostatnio był nawet wątek na LinkedIn, że jak się jest w korporacji, to można nie pracować, można się ukrywać, można nie podejmować ryzyka, zupełnie nieprawdziwe, chyba że się nie chce po prostu pracować. Ale dobrze, do brzegu, pytałeś o to. Zaczynałem jak każdy, musiałem znaleźć sobie jakieś pierwsze miejsce pracy, więc zaczynałem od jakichś prostych rzeczy w IT.

Natomiast mój jakby skill, który jest jakoś tam mocny, to wdrożenia, praca z klientem, próbowanie przekładania tego, co dla biznesu ważne, a co technicznie istotne. Więc dużo czasu spędziłem, prawie 10 lat w Microsoftie, właśnie we wdrożeniach, można tak to ogólnie powiedzieć.

I zaczynałem też trochę temat chmury w Polsce. Oczywiście nie ja sam, tylko cały zespół, ale w 2013 roku czy 2014 chmura była pewną nowalijką tutaj, nikt o niej za dużo nie rozmawiał, a my żeśmy wtedy rozmawiali, pracowali z klientami nad pierwszymi wdrożeniami.

No i gdzieś około 2017 roku stwierdziłem, okej, to ja już rozumiem korporację, wiem jak działa, wiem jak działa to lokalnie, chmura już jest tematem, więc chcę, nie ukrywam, też biznesowo więcej zrobić, więcej zarobić i zbudować coś własnego, co będzie pomagało klientom tej chmury się. Migrować z tej chmury i korzystać. No więc było chmurowisko, nie ja je założyłem, założył je Mirek z Damianem. Pozdrawiam chłopaków, ja dołączyłem jako trzeci wspólnik, współwłaściciel.

Cztery lata z firmy trzyosobowej zrobiło się trzydzieści parę osób no i pojawił się inwestor, który zainwestował pieniądze, który chce tą firmę przeskalować no i super. No a ja stwierdziłem, że cztery lata własnego biznesu wystarczy na razie no i zacząłem szukać, myśleć, co mogę zrobić dalej. Pojawiła się inna ciekawa rzecz. Microsoft otwierał region chmurowy w Polsce, no i udało mi się jakby być odpowiedzialnym za to od strony technologicznej.

Więc przez kilka miesięcy wspierałem ten projekt, natomiast potem, kiedy region został już właściwie opublikowany, bo jest Azure w Polsce, jest region chmury w Polsce. No to pojawiała się okazja, żeby popracować z zespołem, który buduje AI-owe, Gen-AI-owe projekty dla klientów i wewnętrznie dla Microsoftu.

Więc teraz tak naprawdę jestem częścią grupy, która nazywa się Industry AI i wraz z ponad 100 osobowym zespołem data scientistów to co my robimy to staramy się rozwiązywać problemy specyficzne dla danej branży z użyciem AI, gen AI, oczywiście danych i to jest częścią produktów Microsoftu, które potem ludzie konsumują. Od wdrożeń przez własny biznes do produktu plus praca cały czas gdzieś tam z partnerem i klientem. Taka ścieżka moja.

To jest naprawdę niesamowita historia, myślę, zarówno dla tych, którzy siedzą teraz na etacie i myślą, czy można coś nowego odpalić.

Dużo znam takich historii, które zaznaczyłem z ludźmi, którzy wysoko zaszli w korporacjach, w dużych firmach, że chciałbym coś jeszcze, chciałbym więcej wolności, bo jednak ta duża firma jest jak lotniskowiec, ma wielki wpływ, ale ciężko się nią, skręca, chciałbym to polatać szybką łódką i móc być bardziej zwinny i skrętny i tak jak mówisz, można coś przeskalować, jak jest dobry moment, znacznie mieć większy impakt.

Jakbyś mógł tak szczerze z serca porównać, jakby jakie są tak plusy i minusy mojej firmy, bo ty wydajesz mi się taką osobą, że wiele osób powie, o korporacja, to jak mówisz, to można, to jest taka ciepła posadka, ale ja ciebie w ogóle nie widzę, jako osobę, która ma ciepłą posadkę. Ty jesteś takim takim przedsiębiorcą, czy wewnętrznym, czy zewnętrznym, ty zawsze jesteś, że tak powiem, w ataku. Tak, bo to chyba trochę natura, trochę też takie role akurat mi się trafiały.

Myślę, że różnica jest prosta. Wiesz, Microsoft pewnie nie upadnie jutro. Pewnie nawet za trzy lata, nawet jakbym nic nie zrobił i ktoś by mi pozwolił zostać w takiej roli, to na pewno tutaj jest jakby ta pewna stabilność od tej strony. Natomiast nie można powiedzieć, że ta stabilność wpływa na to, że teraz możemy konsumować swój sukces. No nie, ta branża jest bardzo aktywna i prawdę rzecz ujmując, mimo że jestem w tym zespole 6 miesięcy, trzy razy zmieniła się trochę definicja mojej roli.

Dlatego, że rynek bardzo dyskontuje to, co my robimy, no i cóż, trzeba się na to przygotować, więc trudno powiedzieć, że jest to bardzo stabilna, poukładana rola. Wręcz przeciwnie, po 6 miesiącach powiedziałem mojej szefowie, wiesz co, teraz rozumiem, co ja chcę robić i to będę robił, co ty na to, okej. Więc trudno powiedzieć, że mam bardzo dobrze określoną rolę, więc ona jest bardzo dynamicznie definiowana. Co nie znaczy, że nie muszę dowozić wyników.

Ale to też chyba to mówisz, ta dynamika w twoim obszarze, tak jak mówisz, Industry AI, wynika też z tego, że ta branża po prostu w ciągu roku, to po prostu tam się niesamowite rzeczy wydarzyły. Nie oszukujmy się. To znaczy w tym wyścigu AI bierze udział kilku graczy. Microsoft jest jednym z ważniejszych i widać, że tak naprawdę jednak wszystkim. Mocno zabiło serce Vichance, to Microsoft, jak jednak wydarzyło się to, co się wydarzyło rok temu.

Bo w AI, Microsoft nie jest, jakby korzysta z AI na wielu płaszczyznach, chętnie bym posłuchał z czego już korzystacie, że to już jest coś oczywistego, ale rok temu wszystkim zabiło serce mocno i Microsoft jest jeszcze w tej uprzywilejowanej pozycji, że jest inwestorem ważnym OpenAI, czyli jakby jakby tutaj Satya miał niezłą intuicję lub ktoś, kto tą transakcję dopinał, żeby zainwestować w tych młodych ludzi z pomysłem. Co ciekawe i tego to już mało osób wie, OpenAI to nie jest nowa inwestycja.

To jest tak naprawdę dosyć stara inwestycja, ona ma kilka lat i ja się bawiłem i wczesnymi wersjami GPT-2 i GPT-3, kiedy jeszcze świat, bo prawda jest taka, że GPT-3 dużo zmieniła i czat GPT jako konsument.

3,5 tak naprawdę, ale dwa lata temu my żeśmy sobie z kolegą Damianem jeszcze w murowisku kod generowali za pomocą GPT, żeby zobaczyć jakie są możliwości, więc tak, inwestycja jest dosyć stara, natomiast to też pokazuje inną ciekawą rzecz, którą pewnie będziemy mogli potem podyskutować, że gdyby OpenAI nie skalował się przez chmurę, to ciężko by było im osiągnąć pewną skalę.

Więc tutaj trochę kombinacja dwóch czynników pomogła, czyli potencjał budowania tego typu komputerów dedykowanych jednak do tego typu modeli w modelu chmurowym. Plus oczywiście technologia i research, który oni przynieśli. Bez tego researchu to by się absolutnie nie wydarzyło.

Natomiast sam Altman często tam na Twitterze pisał, bo jakby często mało, dużo się mówi o czacie GPT, a mało o tym, jak się skaluje tego typu rozwiązania właśnie w kontekście chmurowym, co powiem szczerze, technicznie, tak na poziomie serwerów, o których nie będziemy dzisiaj rozmawiać, też jest szalenie ciekawym wyzwaniem dla projektantów dzisiaj, a nie tylko w Microsoftzie, tylko pewnie w innych miejscach.

Ale wracając do Twojego jakby komentarza, no tak, jakby rzeczywiście dużo się w tej branży dzieje, więc stąd te zmiany, natomiast też Microsoft jest tak naprawdę, Jak patrzysz na Microsoft, to myślisz sobie ogromny moloch i korporacja. I z perspektywy zewnętrznej, nie będę dyskutował. Natomiast wewnątrz to jest 930 zespołów w inżynieringu, które działają jak małe startupy.

Może nie mają swojego P&L-a, ale mają swoje OKR-y, znaczy swoje cele, mają swoją strategię, muszą dowozić wynik, muszą pokazywać wartość i współpracują z wieloma zespołami. Ja potrafię pracować z sześcioma, siedmioma zespołami w różnych częściach Microsoftu. Żeby jakby jeden plus jeden dawało więcej niż dwa, żeby to, co my robimy, było bardziej to the point.

Natomiast to też pokazuje, że mówię, wewnętrznie to jest tak naprawdę 930 startupów, które tworzą 90, które tworzy 90 tysięcy ludzi i wszystkie te produkty, które widzisz na zewnątrz, to tak naprawdę małe firmy pod spodem, które ze sobą współpracują. Więc to może też jest ciekawe. Dopytam cię, o to chcesz powiedzieć, 90 tysięcy inżynierów pracuje?

Bo to, wiesz, często w tych big techach, jak ja czytam akurat raporty choćby Apple'a czy Microsoftu, to tam widzę jednak gigantyczne nakłady, wiesz, jakieś tam marketingi, Apple hurtowo odkupuje swoje akcje, jest tak jak mówiłeś, byłeś wdrożeniowcem, czyli to są osoby, które chodzą po rynku i namawiają na chmurę.

No to na Boga nie są inżynierzy, to są osoby, które mają przybliżyć tą technologię do biznesu, ale mówisz, że jeszcze on top of tego, co najczęściej my się spotykamy na konferencjach, jest pod spodem tych 90 tysięcy osób, które bardzo mocno hands on pracują nad tym, żeby to wszystko się takich trochę 930 startupów, tak?

Tak, znaczy tutaj może tak, jak się popatrzy na dużą firmę, to można w sumie powiedzieć sobie, że upraszczając oczywiście świat, bardzo upraszczając świat, masz gdzieś legal cały, który w takiej korporacji jest ogromnie istotny, gdzieś jest marketing, który oczywiście dba o całą komunikację. Lądowanie, pracę nad tym, jak te rzeczy lądować. Bardzo dobrze, że oni są, bo ja absolutnie o marketingu nie mam bladego pojęcia i bez nich bym sobie nie dał rady.

Masz engineering i masz gdzieś sales. Oczywiście mówię, uprościłem świat. No i jeżeli popatrzymy poniżej Sati, jest człowiek, który nazywa się Scott Guthrie, facet, który jest w Microsoftie bardzo wiele lat, twórca paru technologii, które zmieniły trochę też to, jak tworzymy aplikacje i pod nim jest 90 tysięcy ludzi.

Ludzi to nie są tylko inżynierowie, bo to są też data scientisti, tych jest bardzo dużo, to jest też research, to są też PM-owie, czyli ludzie, którzy są w stanie przetłumaczyć to, co my myślimy, że ludzie chcą od produktu na to, co jesteśmy w stanie dostarczyć i zbudować. To oczywiście też są sami inżynierowie, w sensie deweloperzy, testerzy, jakby cały ten, ten zespół, ale też researcherzy w obszarze technologii takich fizycznych.

Nie wiem, czy wiesz, przeszło 10 tysięcy ludzi w Microsoftzie, pewnie teraz więcej, pracuje na payrollu Microsoftu i jest odpowiedzialny za to, co my budujemy, no bo ta infrastruktura chmurowa nie bierze się znikąd. Ktoś to musi zaprojektować, zbudować, doprowadzić tam prąd, wyprowadzić ciepło, więc tych ludzi jest bardzo dużo, którzy za tą infrastrukturę odpowiadają, no i ktoś powie, jakie to nudne.

No nie jest to nudne, bo cały ten OpenAI by nie działał bez tych wszystkich ludzi, którzy są w stanie zaprojektować nowe komory, nowe raki, doprowadzić tam tam prąd odebrać ciepło i tak dalej, i tak dalej. Więc tak, to tak to wygląda ta struktura. Zatrzymam cię, zatrzymam cię na tej chmurze, bo wiem, że ty kawał życia spędziłeś właśnie na technologiach Azure, błękitnych technologiach. Błękit pruski, takie jest tłumaczenie na polski, co mnie zawsze bawi.

Błękit oceanu, ja lubię mówić, błękit oceanu, bo to się dobrze kojarzy. Tak jest. No i właśnie, i dobrze to powiedziałeś, bo ludzie często myślą, że chmurze, naprawdę to porównanie jest piękne, że to sobie siedzi gdzieś nie wiadomo gdzie, a tu faktycznie fizycznie, jak byłem w takim jednym czy drugim data center, to są po prostu te raki, tam to wszystko się tam fajnie świeci, jest milion kabli i faktycznie największym problemem jest, tak jak mówisz, doprowadzić pełno prądu.

Wywalić ciepło, szczególnie jeżeli to siedzi w Dolinie Krzymowej, bo jak to siedzi na Islandii, to jest trochę łatwiej. O, pomyśl, jak to jest, jak siedzi to w Katarze, czy siedzi to w Emiratach Arabskich, czy w Izraelu chociażby. Bo pod ziemią to muszą zakopywać wtedy. No właśnie, w Katarze z ciekawości tam dopiero jest ciepło tak naprawdę i tam rzeczywiście te wyzwania są całkiem spore.

A z drugiej strony jest tam dużo światła, znaczy dużo światła słonecznego, więc tam jest jedna z większych farm fotowoltaicznych. No tak, ale mówisz farmy i ja zawsze wtedy myślę, dobra, światło, ale światło gaśnie, a serwery nie gasną. Może one mniej wtedy zużywają prądu, ale na Boga czymś trzeba to wtedy zastąpić. Zawsze jestem ciekaw, czy to jest bateria, czy to wtedy się włącza jakiś, kurczę, gaz.

Ale to może nie wchodźmy aż tak. To bardziej mnie ciekawi, że jak była, nazwijmy to bańka na kryptowaluty, to wszyscy mówili, ola boga.

To zużywa tyle prądu, to psuje naszą planetę, ale tak jak ty czy ja rozumiemy, ile operacji musi się wykonać, żebym ja napisał pięciozdaniowy prompt, a tam mi wywaliło obrazek, jakiś opis, przekształciło tabelę, przeanalizowało, żeby ten AI mi porobił te wszystkie rzeczy, które się wydają takie, to tak szybko, pięknie działa, a są już nawet przecież startupy, które w czasie rzeczywistym przemodelowują, że ja piszę obrazki, krea, jest taki startup,

że w czasie rzeczywistym ja piszę, coś skończyłem i to po prostu w milisekundach przetwarza te obrazki, no to przecież te serwery muszą być nagrzane jak po prostu piec, tak? I jak pytanie sobie z tym radzimy, czy mamy tu takie faktyczne, czy są jakieś badania, że za chwilę będziemy potrzebować jeszcze więcej tej mocy serwerowej. Rozumiem, że OpenAI siedzi na Microsoftowych serwerach, więc to przynajmniej jest jakiś benefit tutaj dla nas. Tak, tak, tak.

OpenAI siedzi rzeczywiście na Azure, duże, znaczy to co OpenAI sam jakby z siebie sprzedaje, to też siedzi na ażur, jest dla nich zbudowana oddzielna infrastruktura. To jest też może ciekawe, że infrastruktura OpenAI, którą OpenAI używa i nasza infrastruktura, przez którą my też klientom oferujemy OpenAI, są dwie różne infrastruktury fizycznie. Natomiast na twoje pytanie, które jest bardzo szerokie, myślę, że jest kilka odpowiedzi. Po pierwsze te rzeczy się nie zawsze chłodzi powietrzem.

Te rzeczy się często chłodzi cieczą i są projekty badawcze od wielu lat, jak to chłodzi ci cieczą. Jak też te serwery budować, no bo chodzi o to, żeby ilość kart graficznych na jeden serwer rosła, tak, i są już projekty, gdzie jest ich 4-8 i też to powiększamy. Natomiast rzeczywiście odprowadzamy to ciepłowodą, ale też staramy się optymalizować.

Pewnie nie śledzisz tego tak mocno, ale pojawia się dużo projektów nowych procesorów graficznych, które mogłyby w przyszłości nie tylko poszerzać możliwości skalowania, ale właśnie zmniejszyć zużycie prądowe i na przykład do hostowania mniejszych modeli, bądź mniej wymagających modeli byłyby idealnym kandydatem.

Już się pojawiły projekty, które nazywają się Maya czy inne, które są naszym wewnętrznym projektem i których właśnie celem jest to, żeby być może za mniejszą wydajność, tą mniejszą wydajność zrekompensować bardzo niskim zużyciem energii elektrycznej. Więc tak naprawdę coś takiego jest. Ale też są inne projekty. Na przykład w Szwecji cały region, który jest, oddaje bardzo dużo ciepła, które jest używane potem do ogrzewania niektórych budynków socjalnych, które tam w okolicy występują.

Oczywiście to się łatwiej mówi niż robi, ale takich projektów jest dużo. Co z tym ciepłem robić, jak je adresować, jak też zmniejszać generowanie tego ciepła i tutaj też bardzo dużo pracy jest wykonywane. Co więcej, to pewnie jest może oczywiste dla niektórych, chmura w ogóle jest bardziej optymalna niż tradycyjne serwerownie.

Ja kiedy szukałem serwerowni tutaj w Polsce, rozważając, czy być może Microsoft zechciałby coś kupić, to wynajdność energetyczna wielu z sajtów, które są tutaj w Polsce, w okolicach Warszawy, jest na poziomie 1.6. Nie będę wchodził w ten współczynnik, co on oznacza. Kiedy te nasze mają gdzieś tam, i w ogóle chmurowe mają gdzieś tam współczynnik 1.12, co oznacza, że są o wiele procent bardziej efektywne energetycznie i to jest właśnie też taka zaleta skali, którą się przez chmurę dostaje.

A powiedz mi jeszcze, bo ty się dobrze na tych serwerach znasz i mnie. Frapuje, na ile teraz, bo jest wielki boom na te NVIDIowe karty graficzne, że one wygrały najpierw na bitcoinowych, wzrostach, na krypto, teraz z kolei okazuje się, że są fantastycznie działają na uczenie maszynowe, Czy Microsoft gdzieś tutaj ma jakiś swój palec Boży i myśli o stawieniu jakiegoś wyzwania?

No bo Apple zaczęło robić swoje serwery, różnie im to wychodzi, w sensie jedne rzeczy im wychodzą lepiej, inne jeszcze nie do końca, ale widać, że zaczynają tu wchodzić. Intel stawia, co dla mnie osobiście ważne, jako wrocławianina, pod Wrocławiem ogłosił, że będzie stał w tym fabrykę, że jednak będzie mocne rozstrzygnięcie i ta walka o te serwery jest bardzo silna. Powiedz, czy Microsoft ma tu jakiś na to pomysł albo jakiś udział w tym?

To znaczy, tak, jest dużo projektów tak naprawdę, zarówno w obszarze właśnie procesorów graficznych, tak jak wspomniałem o tej MAI, ale są też procesory budowane na architekturach armowych, to są architektury zupełnie inne. Mamy swoje przemyślenia na ten temat, jak bardzo one są efektywne, bo pamiętaj, że budowanie chmury w uproszczeniu to są cztery wyzwania, które trzeba rozwiązać.

Doprowadzić prąd, mieć przestrzeń, mieć efektywność, którą możesz sprzedać klientom i jeszcze musi ta efektywność, czyli ta wydajność tych procesorów być odpowiednia dla niektórych zastosowań. Więc to nie jest sprawa prosta. Czy czymś innym jest wyprodukować procesor jakiś tam, a czym innym jest jego adopcja i zastosowanie do wielu rozwiązań.

Głupi telefon, jak prezentują jakiekolwiek nowe telefony, to pokażę, że tu jest tam procesor zwykły, tu jest procesor do przetwarzania maszynowego, tu jest do obrazów, to się stało bardzo złożone, tak? IPhone'ie nowym, jak jest 19 milionów tranzystorów, 3 nanometrowych, jak ktoś się zna, to jakby nie dowiawię, że to może być aż tak maluteńkie i że to się, więc jak powiem, nie, zagrzeje i zresztą najnowszy iPhone się strasznie zagrzewa, bo jeszcze go w tytan wpakowali, bez sensu.

No ale wracając, no więc jakby widać, że to są te specjalistyczne zastosowania, tak? Zdecydowanie. Znaczy wiesz, są też inne ciekawe rzeczy, o tym też się mniej mówi, bo to nie jest takie exciting jak OpenAI, ale od wielu lat my pracujemy nad technologią zapisywania danych w szkle. Nazywa się to projekt Silica, projekt z uniwersytetami prowadzony z Cambridge, z Wielkiej Brytanii i to jest ciekawe.

My produkujemy już tyle danych, że robiąc sobie ekspozycję tego, jak będzie wyglądała ilość produkowanych danych przez nas w przyszłości, dodając do tego dane generowane przez AI, to będzie tylko rosło w zastraszającym tempie, Gdzie to trzymać, gdzie to składować? Naturalne technologie są i one się mogą całkiem nieźle skalować, tylko ile miejsca my musimy zająć, żeby w ogóle te dane zapisywać.

Więc co by było, gdyby w takim szkle, które ja mam tutaj, zmienionym z perspektywy struktury, dało się zapisać i odczytać właśnie bardzo duże wolumen danych, które nie są na co dzień używane. No i te projekty, to są projekty wieloletnie, bardzo drogie, bardzo trudne, bo często trzeba co innym jest zapisać w ogóle te dane, a co innym sprowadzić to do właśnie wielkości rzeczonego iPhone'a, o którym mówiłeś, czyli czegoś, co da się komercyjnie zastosować.

I tych projektów jest bardzo dużo. W obszarze sieci, w obszarze zapisywania danych, w obszarze chłodzenia, w obszarze doprowadzania prądu elektrycznego bez strat, w obszarze tego, czym zasilać te data center. Może okazuje się, że nie trzeba pobierać prądu z gridu, tylko możemy go produkować na sajcie, na przykład z innych gazów.

Więc tutaj tych wyzwań jest dużo i nad tym wszystkim pracuje rzesza ludzi ludzi i będziemy musieli te problemy rozwiązać, bo to, co powiedziałeś na początku, te wszystkie nasze nowe zabawki są fajne, ale generują energię i pobierają prąd. Dalej będziemy je robić, tylko musimy wymyśleć taki model, w którym modele są szybsze i tańsze do hostowania, a infrastruktura pod spodem jest tańsza do dostarczenia i mniej prąd dożerna.

I to się wydarzy. To widzieliśmy w innych obszarach i to się pewnie wydarzy. No tu jestem bardziej optymistyczny niż na poziomie tego, że będą zaraz roboty wyposażone w AI być naszymi służącymi i te wszystkie pierdoły, które opowiada Elon Musk. W to absolutnie nie wierzę, w jakąś taką robotyzację AI. Natomiast w to, co wierzę, to to, że poprawimy nieco efektywność, wydolność naszego po prostu z każdego procesora, czy będziemy mogli więc dostosować te procesory pod konkretne zastosowania.

W to jestem dużo prędzej w stanie uwierzyć. A teraz właśnie przejdźmy do tego, mamy, tak jak powiedziałeś, jedno wielkie nieprzyjemne zagrożenie. Będziemy jeszcze więcej produkować przez GenAI. Będzie trochę cyfrowych śmieci, tak to nazwijmy. Ja jestem tym trochę zaniepokojony. To znaczy już wydaje się, że produkujemy jakąś przeogromną ilość danych, a w tej chwili będziemy przez GenAI, mówię na przykład o social mediach, o tym, co taki stream jest tego.

W tej chwili będzie to to jeszcze dużo, dużo tańsze. Jakie ty widzisz takie wyzwania, zagrożenia z tym związane, siedząc w typu uszy?

Pewnie tych zagrożeń jest dużo, ja myślę, że takie zagrożenie, które się, inaczej właściwie wyzwanie, które się pojawia jest jeszcze takie, czy będziemy mieli technologię, która będzie poświadczała, że to co wygenerowaliśmy to w ogóle jest nasze, bo w obszarze deepfake'ów chyba się już nad deepfake'ami nie da inaczej zapanować, jak tylko przez to, że masz jakiś cyfrowy podpis tego, co rzeczywiście wyprodukowałeś i możesz to zwalidować, ale po drugie myślę,

że dzisiaj problemem nie jest właśnie ilość danych, tylko to, że te dane są niewartościowe. I to wiemy nawet w organizacjach. Porozmawiamy sobie z dowolną organizacją w Polsce, to się okaże, że oni właściwie nie kasują danych, właściwie wszystko archiwizują. Jak zrobimy analizę, czego używają, to się okaże, że na 100% danych tylko 20%, 30% są dane w użytku, a cała reszta to są właśnie dane, które nie są potrzebne i już widać, że mamy z tym challenge.

Pamiętajmy, że w Polsce nasze IT jest stosunkowo młode, no bo ma powiedzmy 20-30 lat. Ja pracuję głównie z klientami w starych, w anglosaskich krajach, starych krajach, czyli te przedstany UK i tam to IT jest dużo starsze. Tam te wyzwania są, więc na pewno... Czy my potrzebujemy danych z zapisów kont bankowych sprzed 40 lat każdego lorda? Może potrzebujemy do czegoś tam, do jakichś spadków?

A może nie? A może to jest dobre pytanie, że powinniśmy to zapisać w tym szkle, bo jakby coś, co chyba najbardziej jest taką stratą, jest to, że w tej chwili wszystko prawie mamy na macierzach SSD, tak? I właściwie masz do tego ciągły dostęp, pytanie, czy potrzebujesz, to, że ja mam, nie wiem, na 5 terabajtów zdjęć, ale przeglądam prawdopodobnie tylko te ostatnie.

I jaki jest sens, że cały czas te dyski się już nie kręcą, ale nadal są uruchomione, że ja na jedno kliknięcie mogę wrócić do zdjęcia aż przed 7 lat, na Boga mógłbym poczekać 2 sekundy, żeby on mi to dociągnął. Nie wiem do końca, czy to już się stosuje, żeby w jakiś sposób je zaszyfrować, skompresować i tak dalej. i trzeba jeszcze wiedzieć co kiedy, kiedy dopaść się do tych starych danych, których w ogóle nie potrzebujemy na co dzień.

Myślę, że tu jest jeszcze jedna rzecz, że dla nas dzisiaj dane są ciągle tanie i nie mamy w ogóle tego pomysłu, jak właśnie z tym walczyć z perspektywy konsumenta. W organizacjach to co mówisz, czyli klasyczny tiering, tego potrzebuję bardzo szybko, tego rzadziej, tego bardzo rzadko, tego prawie w ogóle tylko muszę to mieć ze względów audytowych, ponieważ ludzie zawsze będą leniwi i to jest naturalne, zawsze nam się nie będzie chciało tego klasyfikować.

Jest masa inwestycji w algorytmy, które to tirują, które to archiwizują, które to trzymają właśnie na systemach, które są tańsze w utrzymaniu, więc tu się dużo pracy dzieje, a co więcej, ja myślę, że też w kontekście tego, co powiedzieliśmy o generowaniu tych danych, tak jak mówię, na pewno w systemach enterprise'owych my coraz bardziej zwracamy uwagę na to, czy wartość i jakość tego, co przetwarzamy jest duża i zobacz, że wiele projektów dzisiaj,

jak zaczyna się rozmowa o jaju, mówimy dobrze, a macie governance danych, macie te dane uporządkowane, mamy jakąś strukturę, mamy jakieś zrozumienie i w bardzo wielu miejscach tego nie ma. I na pewno tutaj będą powstawały technologie, które na to pomagają i już są takie prace i one się dzieją i na pewno to będziemy tutaj optymalizować. No i to jest temat do AI, jak dla mnie. To też jest temat do AI.

Bo de facto, jeżeli AI w każdej skrzynce chyba w tej chwili mailowej jest i wykrywa, co jest spamem, a co nie, na podstawie po prostu ilości statystyki zgłoszeń, pewnych filtrów utworzonych, które się domyślają, że jak jest słowo oferta, albo to on zgaduje, że może tego nie chcesz znać, chyba, że jesteś oczywiście zapisany. Także tam jest masę tych filtrów, których my pewnie mielibyśmy problem, żeby je zidentyfikować.

I tak jak mówisz, jeżeli mamy robić ten tiering danych, to może właśnie AI jest dla nas rozwiązaniem. I tu zrobię takie płynne przejście właśnie, żebyś trochę opowiedział case'ów tego, czym się faktycznie zajmujecie. Ja wiem, że trochę jest rzeczy jeszcze sekretnych on the way, ale to, co możesz już powiedzieć, albo w miarę ogólnie, czym faktycznie twój departament, jakie problemy próbuje rozwiązać?

Tutaj akurat sporo mogę powiedzieć, bo właśnie po ostatniej konferencji sporo tego jest jawne, że to, co my staramy się zrobić, to zrozumieć wyzwania, które są w różnych branżach. Zrozumieć, jak te wyzwania przekładają się na technologie i zobaczyć, czy aktualne technologie, które posiadamy, właśnie dżene jajowe, jajowe, są w stanie je rozwiązać. No i taki problem pierwszy z brzegu, London Stock Exchange. Exchange.

Firma, którą postrzegamy jako firmę, która prowadzi GFD brytyjską, co nie jest do końca uprawnione, bo London Stock Exchange tak naprawdę też jest firma, która żyje ze sprzedaży danych.

London Stock Exchange ma bardzo dużo danych o rynku, ma bardzo dużo danych, które pochodzą z analizy analityków, którzy mówią o tym, co się dzieje z zasobami naturalnymi na różnych rynkach, mają analityków, którzy analizują sytuacje polityczne, ale też analityków, które mówią o tym, okej, w ten obszar biznesu, na przykład WSG, będzie inwestowała firma X. W krajach anglosaskich jest ta koncepcja banków inwestycyjnych.

No i teraz wyobraź sobie, Krzysztof, ty jesteś właśnie takim bankierem inwestycyjnym, który idzie na spotkanie ze swoim, z bankiem, który chce w obszar zainwestować, albo z klientem, który chce w ten obszar zainwestować i ty, żeby się do tej rozmowy przygotować, musisz pewnie przejrzeć właśnie to, czym oni się zajmują i w co oni chcą inwestować, analizując newsy. Pewnie chcesz zobaczyć, jak wygląda rynek ESG na różnych rynkach.

Chcesz zobaczyć, jakie projekty ESG są najczęściej teraz kapitalizowane. Chcesz do tego dołączyć analizy pokazujące wzrost tego rynku, danych, które możesz przeanalizować do tego spotkania jest ogromna masa.

Co by było, i to właśnie żeśmy przygotowali dla London Stock Exchange i pokazywaliśmy, gdyby taki bankier mógł do tego spotkania przygotowywać się w ten sposób, że te dane są dla niego analizowane przez właśnie algorytmy AI-owe i Gen AI-owe, bo tu nie da się używać tylko generatywnych innych rozwiązań, zrobić z tego mu pigułkę, czyli z 50 artykułów wybrać 3 i podsumować.

Z analiz stock marketu wybrać najważniejsze informacje sprzed ostatnich trzech miesięcy, analizując dane spółki, w którą chcemy zainwestować, wybrać najważniejsze informacje dotyczące inwestycji w ESG i dać mu w jeden sposób, oczywiście w różnej formie, w postaci grafów, analiz, czartów, dać mu przygotowanie takiego spotkania w kilka minut. Znowu, nic ekscytującego, wiem, bo zacząłem mówić o rynku finansowym,

ale zobaczmy, że... Ale nie, to mówisz o konkretnym use case'ie, który, nie oszukujmy się, analizowanie raportów giełdowych, które mają po 200 stron na boga. Dokładnie tak. To jest robota, którą nie wiem, czy do wczoraj, może już dzisiaj nie, robił po prostu sztab jakichś juniorów, z tylu Goldmanów, Zaksów i innych tam banków inwestycyjnych, żeby przeczytać ten dwustustronicowy raport i tak jak mówisz, wyciągnąć z niego 8 najistotniejszych informacji.

Tylko, że tych raportów mamy setki, więc nagle mamy setki tych Goldman, Zaksowych, juniorów i regularów, którzy muszą to robić, a ty mówisz o Gen AI, który mówi skróć to. Zresztą wtrącę tu, bo ostatnio wyszły rekomendacje panu na temat tego, jak tam układać edukację i kilkunastu profesorów napisało przemądre rzeczy, 17 stron. Czytać się tego nie dało, przepraszam najmocniej profesorów. Więc zrobiłem z tego szybki skrót i zacząłem rozsyłać ludziom.

Mówię, dobra, stronę to wytrzymacie. I naprawdę ta strona była czytelna, po prostu. I wydaje mi się, że po prostu nasz mózg ma pojemność, natomiast AI a jest no jakby bardzo, silne, żeby nam takie skróty dokonywać i takie analizy, to co ty powiedziałeś, to jest super use case, który no ogranicza pracę wielu asystentom, oczywiście ktoś musi to sprawdzić, ale da się, tak?

Tak i ogranicza, ale też podnosi jakość, to jest też ciekawe i to było dla nas zaskakujące i to akurat przypadek z innej firmy, która nam pokazała rozwiązanie do analizy, my tego w Polsce też znowu dużo nie mamy, ale wyobraź sobie, że jesteśmy teraz firmą tytoniową i produkujemy papierosy, akurat zły może wątek, bo ani ja, ani ty chyba nie palimy i te papierosy na przykład były badania, że one mogą komuś zaszkodzić, a jednak trafiły na rynek,

zaszkodziły komuś i robi się analizę tych wszystkich dokumentów, rozmów, spotkań, które mogły doprowadzić do tego, że wcześniej przed wypuszczeniem produktu na rynek ty miałeś te wszystkie informacje. Znowu, sadzasz sztab prawników, tak jak powiedziałeś, którzy muszą to przeanalizować. Nasze do odkrycia? Prawnicy często się nudzą. Często są już pewni, że znaleźli dobre dokumenty, a nie analizują pewnych, które mają tylko niewielki potencjalnie wpływ na sprawę, ale są super istotne.

I znowu, podniesienie jakości czy podniesienie trafień w te dobre dokumenty to jest coś, co robimy właśnie używając tego typu technologii. No i cóż, jest dzisiaj firma, która analizuje w ten sposób 2-3 miliony dokumentów miesięcznie. Konkretnie to podajesz prawdziwy przykład, sprawdzając, czy ktoś wiedział o tej szkodliwości. Zgadza się. Oczywiście tam są case'y trochę trudniejsze niż takie właśnie, jak ja podałem.

Ja uprościłem całą sytuację, ale tak, jest firma, która od czerwca to robi i dzisiaj mniej więcej pomiędzy 2-3 milionów dokumentów jest w ten sposób analizowanych. I teraz dla niektórych to się może wydawać bardzo trywialne, bo my to trywializujemy trochę, ale jak się zastanowić, jak ty powiedziałeś, masz 200 raportów po 200 stron, A co wtedy, kiedy 100 z nich jest sobie kontr... Mówi o rzeczach, które są sprzeczne. Jak ten problem rozwiązać?

A powiedz jeszcze, interesują mnie bardzo, mnie osobiście, zastosowania przemysłowe AI, bo AI, to, które znamy, no to jest świetne w tekście, w obrazach, już zaczyna traczkować w tym dźwięku, w sensie jest na niej generować fale dźwiękowe, nieźle podrabiać głos i analizować, ale wiesz, mnie na przykład fascynują, sytuacje, gdzie AI na przykład wykrywa pożary w fabrykach, albo Albo jakieś niedziałanie mechanizmów. Czy jest w stanie przewidywać, że ta maszyna funkcjonuje już od 8 lat i typowo

system rekomendacyjny AI mówi, czy te uszczelki mają dużą szansę się zepsuć. Czy w automotive. Słuchaj, ostrzegam Cię, że typowo w tym modelu BMW po trzech latach i po takim przebiegu możliwe, że wymienisz trzy przeguby. Rozważ wizytę u mechanika. To jest coś, co mnie strasznie kreci, bo to oszczędza też masę pracy i bardzo trudno to zidentyfikować. I tutaj dotykasz ogromnego tematu, bo tak, z jednej strony pewne rozwiązania, które ty podałeś są i to od wielu lat.

Predictive maintenance, o którym wspominasz właśnie, czyli przewidywanie błędów w urządzeniach mechanicznych czy na liniach produkcyjnych, czy analiza obrazu z linii produkcyjnych. No słuchajcie, to nie jest wielką rzeczą, że dzisiaj jak pójdziecie do Biedronki, nie promujemy Biedronki i korzystacie z zakazu samoobsługowej, jest kamera, która sprawdza, czy ty kupiłeś pomarańczę, a wskazujesz tą marchewkę, prawda? I wykrywa tego typu rzeczy. Więc tego typu rzeczy są od jakiegoś czasu.

Ja myślę, że inny temat, który może cię ciekawić, to to, czy my będziemy w stanie za pomocą tych algorytmów i generatywnych, i niegeneratywnych, na przykład uprościć pracę inżynierom, którzy produkują nowe sprzęgło, albo nowy silnik, albo nowy wydech. I to są ciekawe problemy, bo one są, momentalnie skalują się na cały sposób produkcji, czyli potencjalnie na koszty.

Jak to powiedział jeden z prezesów, czy jeden z CIO-sów, z którym się spotkałem, powiedział tak, Michał, mamy 120 lat czy 140 lat motoryzacji, a teraz ja chcę, żebyś w trzy miesiące wymyślił, jak produkować samochody lżejsze, tańsze i tak samo odporne.

Oczywiście to jest North Star, do którego pewnie nigdy nie dojdę tak od razu, ale my szukamy takich zastosowań, które ułatwiają projektowanie, które ułatwiają na przykład powstawanie rysunków CAD-CAM-owych, które ułatwiają walidację tego, czy to, co powstało na przykład mechanicznie w ogóle ma sens, czy technicznie, które ułatwiają też pisanie kodu, który robi takie symulacje.

I znowu, tutaj jest bardzo wiele zastosowań, tylko myślę, że tutaj otwieramy nową puszkę Pandory, że tak się wyrażę, czyli tworzenie nowych modeli, budowanie nowych modeli nawet od początku, albo. Transformatę problemu z przestrzeni projektowania graficznego na projektowanie, na język. I to się też daje robić, czyli Czyli trochę rozwiązywanie innego problemu, który rozwiązuje ten pierwszy.

Z innych ciekawych rzeczy, bardzo dużo zastosowań w obszarze wymyślania nowych leków, czy w obszarze medycyny. No właśnie, o tym się dużo mówi, ale jakby jeszcze nie, mimo że pracujemy chyba do dwóch firm Big Pharma, to jeszcze, że tak powiem, nie widziałem namacalnych rzeczy. Trochę w prasie się pojawia tu i tam.

No bo właśnie, no koniec końców i tak to trzeba zatestować. Natomiast jestem w stanie sobie wyobrazić, jeszcze wracając, Więc zanim powiesz o farmie, o tych, że AI jest świetne, że można mu dać bardzo duże, informacje typu ma być właśnie szybsze, lżejsze i szykuj mi różne stopy i o ile inżynier wymyśliłby ich tam 100-200, to AI może jest głupie. Ja uważam, że AI jest często głupie, ale dysponuje ogromną mocą obliczeniową.

Więc on przetestuje nawet nie 100-200 sensownych rozwiązań, jak doświadczony inżynier, ale on przetestuje 100 tysięcy, w tym 99 tysięcy są kompletnie bez sensu, ale dzięki temu ten tysiąc też będzie bardzo sensowną analizą i jak rozumiem trochę tak to działa. Tak, a z drugiej strony my właśnie chcemy, żeby te wszystkie rzeczy były bardziej mądre, czyli też nie staramy się analizować wszystkiego, tylko człowiek. Dlatego mówimy często o takiej współpracy człowieka i maszyn.

To nasze takie tam, to hasło co-pilot, ale też właśnie ono daje jedną rzecz, że nie chodzi tylko o to, że ten pilot ma zweryfikować to, co tam wyprodukowaliśmy, ale też ma podpowiedzieć, bo masz kontekst, którego te modele mogą nie mieć. To, o czym my często zapominamy. My jako ludzie mamy bardzo dużo kontekstu i zrozumienia danej branży i danych problemów, a absolutnie tego te modele nie mają.

Szkolenie i do tego, wydaje się, kantor produktywny z tych naszych badań, które robimy, oczywiście możemy się mylić i pewnie się bardzo dużo mylimy. I ostatni wątek, ja myślę, że problemy, które my teraz poruszamy, to nie są problemy na 3-6 miesięcy. My w 3-6 miesięcy to zrozumiemy domenę, my zrozumiemy problem i go sprowadzimy do kilku use case'ów, które jesteśmy w stanie przetestować.

My zrobimy techniczny taki proof of concept, że ten problem daje się tymi technologiami rozwiązać, tak bądź nie, czyli potwierdzimy hipotezę, a dopiero potem będziemy skalować. To są, sam wiesz, projekty trudne i projekty, które wymagają powstania na przykład nowych modeli, nowych technologii, czy też zoptymalizowania kosztów, bo co z tego, że jestem dany problem w stanie rozwiązać, jeżeli koszty, które za tym idą, przewyższają wartość z niego.

No pewnie nie ma sensu wtedy, tak. Także dużo takich eksploracji jest i tak jak teraz na ostatniej konferencji pokazaliśmy takich projektów kilkanaście, tak kolejne kilkadziesiąt, przynajmniej w moim zespole tam gdzieś się kręci, pewnie na kolejnych targach, nie wiem, w branży automotive, w branży retail, w branży healthcare, zobaczycie jakieś tam projekty, nad którymi pracujemy, no i będą się pojawiały, bo to mówię, wymaga sporo pracy i sporo walidacji.

Dokładnie, sporo walidacji przez człowieka i to jest ważne już użyłeś słowa kopilot ja bardzo w to wierzę ja nie wierzę zupełnie w te scenariusze, a też zajmuję się researchem w AI od ponad pięciu lat jako, szef projektów różnych naukowych w AI i mam wrażenie, że wiele osób przychodzi i widząc co robi chat GPT ma wrażenie, że teraz to wszystko będzie się działo samo, a tymczasem bardzo wierzę we współpracę człowieka z AI, czyli chcesz sobie coś

napisać, daj sobie prompta, niech ten prompt ci to napisze i sobie tam potem poprawisz. Chcesz zaprojektować jakiś proces przemysłowy, coś ci tam wykonceptuje AI, ale ostatecznie bardzo dużo pracy jest tego inżyniera.

Specjalisty, lekarza, nie wierzę zupełnie w jakieś takie systemy autodiagnostyczne, zresztą taki system przygotowałem do kodiak, do styki, spektrum autyzmu i to zawsze musi być ostatecznie specjalista, choćby ze względów etycznych, nawet jeżeli to AI już będzie będzie całkiem niezłe w probabilistykę, to ze względów etycznych, no autonomiczne auta mówią trzymaj ręce na kierownicy, no bo jak będzie jakaś naprawdę trudna sytuacja, no to sorry, ale nie możesz zwalić tego na maszynę, więc chciałbym,

żebyś trochę powiedział, bo Microsoft mi się tu podoba to określenie, podoba mi się use case, w którym nastąpi prawdziwie masowa adopcja, jak są jakieś keynotey robię, to mówię, że prawdziwa masowa adopcja to nie będzie open AI z jakimś tam tam prąbcik i ten, czy jakieś generowanie obrazków, czy nawet analiza danych, to będzie to.

Jak pani na recepcji codziennie wysyła ofertę jakąś, bo na imprezę firmową, na recepcji hotelu i to jest powtarzalny proces, to w którymś momencie Microsoft Office jej powie, hej, czy mam ci wygenerować tę ofertę automatycznie, bo już mam tyle danych, które ty tu wpisałeś ręcznie, że ja ci mogę to zaproponować automatycznie, bo ty robisz to 18 raz w tym miesiącu, więc ja już wiem, co ty zrobisz, co ty kopiujesz. I ten kopilot to będzie rewolucja w jej pracy, bo naprawdę jej oszczędzi masę

czasu. Czy ty też wierzysz w ten scenariusz? My jako firma wierzymy bardzo mocno w ten scenariusz, tylko bardzo ważną rzecz podniosłeś, że on musi być bardzo kontekstowy. Czym innym jest sytuacja, w której ty piszesz sobie nowy tekst dotyczący twojego projektu, czym innym jest, jeżeli analizujesz dane na przykład w jakimś rozwiązaniu, gdzie masz dane strukturalne, niestrukturalne, czym innym jest, jak tworzysz prezentację, analizujesz logi z bezpieczeństwa.

Czyli ja teraz mówię, że generyczne rozwiązania są mało specyficzne i mało wartościowe. Oczywiście w szerokim rynku tak, ale w rynku biznesowym, tak jak powiedziałeś, ten kontekst i miejsce, w którym ten copilot będzie na bazie Twoich akcji, Twoich interakcji z innymi, Twoich dokumentów, czy Twoich właśnie wysłanych ofert. Mógł Ci podpowiedzieć, że powinieneś teraz wysłać tą ofertę, załącz ten plik i jeszcze wskaże, że to może jest właśnie ta ostatnia wersja.

Tak, to pomoże nam pracować i mi już pomaga pracować, bo ja głównie pracuję z wiedzą, więc można moją pracę sprowadzić do tego, że albo czytam dokumenty i je piszę, albo tworzę powerpointy i je komuś wyświetlam i jeszcze komunikuję to wszystko do ludzi, którzy to budują.

Więc na koniec dnia to jest praca z wiedzą, która jest bardzo kontekstowa i to się na pewno dla mnie przydaje, ale to co powiedziałeś… Ale wiesz Michał, co do kontekstowości, bardzo dużo prac, bo trochę wydaje mi się, jak pięć lat temu ja podchodziłem do AI, to wydawało się, że on jakby przyspieszy różne takie prace w fabrykach, że będą, wiesz, pewne rzeczy działy się same.

Tam oczywiście weszła automatyzacja, może nie AI, ale duża automatyzacja jest, jak sobie przejdziemy przez nowoczesne fabryki Volkswagena, czy przez, już nie mówiąc o Teslach, no to tam widać, że tam roboty faktycznie składają te auta i fajnie.

Natomiast to, co naprawdę się przyspieszyło, to te prace, które robi masa Polek i Polaków w Krakowie, Poznaniu, Łodzi, czyli w tych centrach outsourcingowych, gdzie ktoś koniec końców wrzuca jakieś faktury do systemu, coś tam się dzieje, coś sprawdza, przyrzuca do innego systemu.

To są dość powtarzalne rzeczy, które wymagają pewnej zdolności intelektualnej, ale wydaje się, mam taką intuicję, że ta praca będzie co najmniej mogła być znacznie przyspieszona, bo ona jest w dość dużej strukturze, ona jest w dość dużej powtarzalności, ona jest w określonych kontenerach danych, tak, więc tu widzę, że paradoksalnie najwięcej może można przyspieszyć w pracy takiej dla, powiedzmy.

W takich powtarzalnych pracach, które wymagają owszem sporej intelektualnej wrażliwości, no ale znowu nie są bardzo kreatywne, nie oszukujmy się. Wiele z tych prac w tych centrach księgowo-outsourcingowych mało znam osób, które mówią, że to jest praca, która wznosi ich na wyższym wysiłku intelektualnego. Tak, tak. To tak, na pewno to, co mówisz, się dzieje i się wydarza i tak naprawdę się wydarza od wielu lat.

To nie jest tak, że my dopiero teraz dostrzegamy te możliwości, bo dla bardzo specyficznych rozwiązań niepotrzebowych mogliśmy już dawno budować, trenować rozwiązania i dostarczać je, rozwiązując konkretne, konkretne problemy. Myślę, co teraz się wydarzyło i co jest ciekawe, to to, że potrafimy rozwiązywać te problemy też inaczej się komunikując z tymi maszynami, mówiąc wprost. Bo co by było, gdybym ja w stanie był na przykład uprościć inny proces.

Czyli osoba biznesowa, osoba pracująca w sprzedaży potrzebuje wykonać ileś analiz, które wymagają pewnej wiedzy o tym, jak się analizuje te dane i zamiast ona specyfikować dokładnie, jak to masz zrobić, ona trochę mówi, co chciałaby uzyskać, czyli trochę opisuje efekt, a my jesteśmy w stanie ten efekt dla niej wymyśleć, proces postępowania, wykonać tę akcję i ten efekt dać.

Oczywiście ktoś powie, że to jeszcze nie jest dostępne. W wielu miejscach jest, tylko tak jak powiedziałem, oprócz tego, że jest specyficzne i kontekstowe, to rozwiązuje konkretne, nie wiem, 5, 10, 15 powtarzalnych problemów, tak jak powiedziałeś, a nie każdy ogólny problem, bo tego też nie chcemy robić, bo wtedy jakość i wartość tego jest mała. To ci zadam to pytanie, które pada we wszystkich podcastach, czyli kiedy powstanie AGI?

I właśnie ja nie wiem, czy w ogóle, znaczy tak, po pierwsze nie wiem, kiedy powstanie, po drugie nie wiem, czy w ogóle ma to jakiś ogromny sens z perspektywy właśnie przyspieszania takich rzeczy biznesowych, o których sobie rozmawiamy, po trzecie wreszcie koszty dostarczenia, wartość z tego, okej, pewnie jest ogromna i tak dalej, i nie deprecjonuję tego, tylko wydaje mi się, że z perspektywy właśnie tych faktur, o których mówiłeś

tej pani, o której wspomniałeś, to my nie potrzebujemy AGI, żeby te problemy jej rozwiązać. Tak naprawdę nawet te modele, które dzisiaj mamy, bardzo wiele tych problemów potrafią rozwiązać i zaadresować. A z drugiej strony... Ważną rzecz, więc spróbuję to podkreślić, że wiele osób się spiera, czy AGI jest możliwe do powstania technicznie.

A ty mówisz, nie wiem, może tak, może nie, ale przede wszystkim, czy to jest opłacalne, bo pytanie o AGI to jest trochę pytanie według mnie, czy powstanie samochód do wszystkiego, który będzie najszybszy, najbardziej terenowy, może najwięcej przyczyn z ciężarówką, SUV-em, sportówką, no jakby... Nie ma czegoś takiego. Może można? Może można. Po co? Ale po co, tak. Dokładnie właśnie tak. I tutaj też chyba... Ja jestem tego zdania, że właśnie nie ma to ogromnej wartości.

Oczywiście pamiętajmy jeszcze jednej rzeczy, że my rozmawiamy o temacie, który się bardzo dynamicznie i szybko rozwija od wielu lat i nawet jak się popatrzy, wszyscy mówią o tych dużych modelach, czyli mówią o OpenAI, Gemini i tam jeszcze kilku, ale bardzo dużo pracy się dzieje w tych mniejszych modelach. Specjalizowanych, konkretnych, open source'owych, łatwo odetrenowalnych, dużo tańszych w utrzymaniu. I powiem szczerze, w wielu rozwiązaniach nigdy nie jest tak,

że stosujemy jeden model. To jest kombinacja kilku, to jest kombinacja tradycyjnych, że tak powiem, modeli, na przykład właśnie w tym Predictive Maintenance, o którym żeśmy wspomnieli. To jest kombinacja wielu rzeczy plus danych, które musimy mieć, żeby ten model właśnie uziemić, że tak powiem, do kontekstu, w którym pracujemy. I ja wolę poświęcić, mówiąc szczerze, trochę więcej czasu na te specyficzne modele zastosowania, bo jakość i szybkość tego, co uzyskam, potrafi być dużo

większa. Przykład kolejny. Załóżmy, że masz firmę software'ową. I ta firma software'owa od 20 lat pisała kod. Ci, którzy pisali ten kod 20 lat temu, dawno nie są w tej firmie i wszyscy wiedzą, że to jest kod, który fajnie by było przepisać, ale nigdy nie ma na to czasu, pieniędzy, nie ma też kompetencji. I każdy się tego boi, że się nie uda tego przepisać tak dobrze, żeby działało.

Ale absolutnie, że tak. Nie tak dalej jak dwa tygodnie temu rozmawiałem z bardzo dużą firmą globalną, która ma dokładnie takie wyzwanie. I oni mówią, Michał, wiesz, znalezienie bardzo dobrego inżyniera, który pisze w C i potrafi pisać na poziomie stosu sieciowego, to jest wyzwanie, albo na poziomie sprzętu, albo to są bardzo drodzy ludzie, albo ich po prostu nie ma.

Co by było, gdybyśmy byli w stanie na przykład ten kod dobrze udokumentować dzięki właśnie specyficznemu modelowi, pomóc nowej osobie, przepisać go na język, w którym rzeczywiście chcemy, przynajmniej częściowo i część tej pracy, nie całą oczywiście. Zautomatyzować i spróbować gradacyjnie te takie rozwiązania przepisywać.

Gwarantuję Ci, że wiele banków, czy wiele firm software'owych, czy wiele firm, które ma stare legacy i rzeczy, marzyłoby o czymś takim, co oczywiście tak szybko nie zdarzy, ale musimy prowadzić research w takich obszarach, bo to są rzeczywiste problemy, które mamy nawet dzisiaj, choćby z perspektywy też bezpieczeństwa.

Takie stare rzeczy są naprawdę często mało bezpieczne, bo w czasy, kiedy powstawały, w ogóle nie mieliśmy tego wyobrażenia o cyber security, które jest dzisiaj i w zakresie ataków, który możemy mieć. Ale to ja się chyba do Ciebie zgłoszę, bo dokładnie nad takim casem w tym momencie pracujemy, jako Escola dla amerykańskiego klienta. Oni mają, nie wiem, czy Ty znasz jeszcze, czy pamiętasz, taki język, który de facto nie oddzielał systemu operacyjnego od bazy, nazywał AS400 bodaj,

czy to AS800. Oczywiście, oczywiście. I on jest bardzo szybki, no bo on nie wyciąga jakby niczego, tylko to nie język, on chyba mówi, że o całym systemie IPM-a, tak? Dokładnie. On nie musi nigdzie zaglądać, bo tam wszystko jest jakby w jednym worku i przez to on działa relatywnie szybko.

I my właśnie pracuje nas naprawdę chyba koło dziesięciu inżynierów, żeby przepisać ten system, który jest w głowie tylko jednego człowieka, który niestety ma już ponad 70 lat i łapie go jego powolutku demencja i jak on już przestanie rozumieć, co tam się dzieje, to już nikt nie będzie umiał.

I naprawdę walczymy, żeby przepisać to na nowoczesne języki, mikroserwisy, to wszystko super brzmi, tylko powyciąganie rzeczy z tego z tego AS-u, z systemu AS jest dramatem, bo tylko ten człowiek to rozumie, co tam się dzieje, to jest zupełnie inny sposób myślenia, to jest sposób myślenia, który ktoś, kto się urodził w latach osiemdziesiątych, dziewięćdziesiątych, no nie rozumie po prostu, jak to wszystko chodzi, bo my nie wyradzaliśmy się na takich, na tego rodzaju systemach i faktycznie

jakby dało się, że tak powiem, zaprząc coś, to nam da jakieś, wiesz, już rok nad tym się męczymy i na razie efekty są dość daleko.

Tak, tak, tak, tak, oczywiście i dalej pewnie jeszcze będziemy z tym walczyć, bo tak jak powiedziałeś, w ogóle sam koncept języka jest inny, więc architektura będzie inna, zrozumienie tego języka też nie jest pewnie takie proste, bo przykładów kodu na SA400 w internecie dzisiaj jest policzalna ilość, podczas gdy przykładów kodu w raście, czy w C, czy w czym innym, jest ogromna masa, więc to jest też w ogóle wyzwanie, jak do tego podejść, no i tyle. nad tym też się pracuje.

Ale temat żeśmy weszli. Na koniec chcę jeszcze cię troszeczkę wprowadzić na grząski grunt spekulacji. Ale nie taki całkiem wiesz właśnie o AGI, o takiej przyszłości, tylko nad czym pracujesz teraz, co jeszcze zupełnie wiesz, że jesteście dość daleko od konkretnych odpowiedzi, ale na przykład za dwa, trzy, cztery lata zobaczymy, wydaje się, że zobaczymy tego efekty. Myślę, że ten horyzont, który powiedziałeś dla mnie jest absolutnie nieosiągalny.

Ja nie jestem takim, że tak powiem, myślicielem do przodu, który wie, myślę nawet, co będę za 12 miesięcy robił.

Więc tu jakby pierwsza rzecz, że ten zakres czasowy myślę, że będziemy skracać też dlatego, że nie ma co ukrywać, bardzo dużo, znaczy to, że my widzimy dzisiaj pewne innowacje, to znaczy one powstawały 12 miesięcy temu, więc nie ma co ukrywać, że w kolejnych miesiącach będziemy widzieli jeszcze więcej i różnych ciekawych anonsmentów w obszarze mniejszych modeli specyficznych, modeli, będziemy widzieli więcej agentowości na pewno, to to wszystko się wydarzy.

Ale jeżeli pytasz już dokładnie o to, co właśnie nas tam jakoś frapuje, to cały pomysł, czy jesteśmy w stanie na przykład robić ciekawiej, lepiej, szybciej sekwencję badania w obszarze powstawania nowych leków. Wykorzystując niektóre algorytmy, które mamy, dotrenowując je kontekstem, który mają firmy badawcze.

Wczoraj byłem na spotkaniu, w którym człowiek powiedział, że gdybyśmy byli w stanie w trakcie, po urodzeniu wykrywać specyficzne sekwencje genów, bylibyśmy w stanie wyeliminować bardzo, znaczy bylibyśmy wskazać już na bardzo wczesnym etapie osoby, narażone na ataki serca czy na problemy z sercem. I podawać im leki, które już na wczesnym etapie by ten problem wyeliminowały.

Ciekawa rzecz, nie mamy na ten temat rozwiązania. Oczywiście pewnie ja coś tutaj uprościłem i przepraszam tych, którzy znają się na obszarze, na tym obszarze, ale to jest właśnie jeden z obszarów eksploracji. Drugi. Na pewno wszystkie systemy projektowe. Pomyślmy o tych wszystkich projektantach, którzy używają systemów CAD-CAM do projektowania rozwiązań fizycznych, do projektowania skomplikowanych układów, do projektowania układów mechanicznych, elektrycznych.

Gdyby tam, i też dlaczego ten problem jest taki istotny, ten sam problem, który ty podałeś. Ci inżynierowie, którzy mają doświadczenia i mają zrozumienie, powoli odchodzą, powoli się starzeją. Ci nowi mówią, to jest zbyt skomplikowane, zbyt trudne. Co by było, gdyby zmniejszyć im ten learning curve, dając jakieś fajne paterny, właśnie generowane przez tego typu rozwiązania, więc na to gdzieś tam patrzymy i o tym myślimy. I to są też trudne problemy.

Oczywiście cały temat lepszego wykrywania, czy też skanowania tego, co widzimy na zdjęciach. Dzisiejsze te modele najnowsze robią to już bardzo dobrze. I taki kolejny przykład, co by było, gdyby większość analiz w kontekście ubezpieczeniowym była robiona automatycznie, w dużej skali.

Jeżeli masz wypadek, sytuacja na drodze, to już umiemy robić, ale chcemy to przenieść na kolejny poziom typu taki, to jest szkoda, to jest zakres napraw, to jest wycena, a to jest kroki postępowania, zrób sobie self-service, drogi kliencie, będzie szybciej, będzie taniej, będzie łatwiej.

Więc analiza obrazu, ta multimodalność, analiza filmu, znaczy film może w tym momencie mniej, ale ta obrazu wydaje się niezwykle ciekawa i będziemy na pewno to eksplorować bardzo, bardzo mocno i właśnie chociażby w tych obszarach, o których mówiłeś, manufacturingowych, myślę, że będzie masa zastosowań w tym temacie. Także to są takie obszary poszukiwań, które gdzieś tam się dzieją.

Słuchajcie, Michał Furman-Kiewicz to jest gość, który ja bardzo lubię, bo to jest człowiek, który się naprawdę ekscytuje. Myślę, że wszyscy, którzy nas słuchali, którzy nie są AI-em, którzy nie są kopilotami AI, słyszeli te emocje, że on naprawdę swoim sercem chce popychać te technologie do przodu i ja mam nadzieję, że to pozostanie z nami, że właśnie ciągle rewolucje czy ewolucje w technologiach będą dokonywane i ludzie, którzy tym żyją, też umieją to ocenić, czy to jest do czegoś,

czy to jest po prostu nowe. bo to jest różnica, tak? Także bardzo Ci dziękuję, Michał, że się podzieliłeś. To ja dziękuję, ale minęło wszystko. Podzieliłeś swoją wiedzą i dałeś nam trochę zajrzeć w głąb tego, co robicie, bo to naprawdę wiele osób bardzo interesuje, a nie ma aż tak dużo takich możliwości podcastów, żeby posłuchać, co naprawdę w tej katedrze Microsoftu się tam działo.

Dużo się dzieje, dużo się będzie działo i pewnie będzie dużo anonsmentów i dużo ogłoszeń, natomiast też polecam, bo my się często ekscytujemy ogłoszeniami. I ja myślę, że warto też czasem spędzić przy kawie, przeczytać sobie jeden z takich dokumentów bardziej data science, takich bardziej naukowych, które często w bardzo prosty sposób pokazują właśnie obszary zastosowań.

Warto temu poświęcić chwilę, bo wtedy można odróżnić hype, którego jest dużo w internecie, od tego, gdzie rzeczywiście widzimy wartość i gdzie widzimy sens, więc polecam wszystkim, jest tego dużo i fajny materiał. No to fajnie, to ja cię Michał poproszę, żebyś ze dwa tytuły takie konkretne, czy linki, gdzie to znaleźć dał i my to pod podcastem, jak będziemy publikować, to podlinkujemy i będzie faktycznie mniej hype'u, więcej faktycznej wiedzy od specjalistów.

Dzięki Ci Michał jeszcze raz. Ja dziękuję bardzo, pozdrawiam wszystkich, dobrego dnia życzę, do zobaczenia. Eskola Mobile Biznes masz w kieszeni. Poruszyliśmy ogromną ilość tematów i mamy nadzieję, że możesz wykorzystać wiedzę Michała do rozwoju swojej firmy. No bo to jest Eskola. Eskola, czyli po portugalsku szkoła. Miejsce, gdzie dzielimy się wiedzą.

Dlatego jeżeli podobał Ci się ten podcast, zdobyłeś, zdobyłaś nową wiedzę, którą możesz wdrożyć w swoim przedsiębiorstwie, bardzo prosimy, daj nam pięć gwiazdek i fajną opinię. Im więcej takich gwiazdek, im więcej radości dasz algorytmowi Apple'a i Spotify'a, tym częściej właśnie ten algorytm da rekomendacje tego podcastu kolejnym słuchaczom. Właśnie dzięki Twoim gwiazdkom, ocenom, szerowaniu możemy dzielić się wiedzą, czyli spełniać misję podcastu Eskola Mobile.

To był 169 odcinek podcastu Eskola Mobile. Gościliśmy Michała Furmankiewicza i rozmawialiśmy o AI. Teraz i jutro. Do usłyszenia.

Transcript source: Provided by creator in RSS feed: download file
For the best experience, listen in Metacast app for iOS or Android
Open in Metacast