Piszę ten wpis żebym mógł na niego wskazać mówiąc „A nie mówiłem?” ewentualnie żeby ludzie o przeciwnym zdaniu mogli zrobić to samo i wskazać, że to ja się myliłem.
LLMy to trochę inna wersja Googla, pod pewnymi względami lepsza pod innymi gorsza. Nie wydaje mi się, żeby to była „technologia przyszłości” podobnie jak nie uważam, że rozwijanie „kompetencji AI” to teraz podstawowa ścieżka rozwoju programisty.
Uczenie maszynowe (ktoś używa jeszcze tego określenia?) ma swoje zastosowania, im węższe tym lepiej sobie radzi. A LLMom nieźle idzie sprawdzanie pisowni, poprawianie gramatyki, tłumaczenie czy przeglądanie dużej ilości tekstu. Niektóre proste poprawki w kodzie robią całkiem nieźle, niektóre typy błędów przyzwoicie wyłapują – to coś przydatnego!
Żeby zrobić coś bardziej skomplikowanego ilość promptowania które muszę zrobić dorównuje napisaniu tego samemu. Ktoś może argumentować, że nie posiadam tajemnej umiejętności poprawnego promptowania. Pewnie tak. Ale dla mnie to umiejętność bardziej krucha niż znajomość losowego frameworka JS.
Zastosowanie AI w programowaniu podsumowałbym jako „No nie jest idealnie ale jest prawie dobrze.. przeważnie… no generalnie musisz to sprawdzać”. Opiera się na obietnicy, że lada moment, jeszcze miesiąc, maksymalnie rok rzeczywiście będzie produkowało coś porównywalnego z kodem kolegi z pracy.
Kilka miesięcy temu CTO firmy dla której pracuje (napewno korzystałeś\korzystałaś z jej usług), na moje pytanie czy jest jeszcze w organizacji miejsce dla ludzi którzy chcieliby rozwijać się tylko w tradycyjnym programowaniu zaprzeczył twierdząc że AI skills to przyszłość. Porównał też brak chęci rozwoju w tym kierunku do programowania w Cobolu.
Z mojej perspektywy CTO większości firm mają zbiorowe FOMO dt. tego że ich firma nie będzie wystarczająco dobra w AI i „zostanie w tyle”. Nikt nie licytuje się już kto ma lepszy uptime, monitoring, bardziej bezobsługowy samoleczący system czy więcej kontrybucji do Open Source. Dopuszczam możliwość, że są wśród nich osoby o bardziej wyważonym podejściu do AI ale nie dają po sobie poznać przez presje akcjonariuszy. Czekam z niecierpliwością na pierwszego CTO który zmieni podejście do wpychania wszędzie LLMów, czekam też na tłumaczenia w stylu ”To wydawało się słuszne podejście, wszyscy tak robili”.
Nie zaprzeczam, że kiedyś może powstać technologia AI która będzie robiła wszystko to co ja (także niezwiązane z programowaniem) dużo lepiej ode mnie. Ale to nie będzie papuga która zastanawia się nad każdym słowem osobno. Znam koncepcje Chińskiego pokoju i nie uważam że żeby AI było porównywalne z ludzkimi umiejętnościami musi odzwierciedlać działanie mózgu ale nie wydaje mi się żeby było w stanie to osiągnąć aktualnym podejściem typu Mądry Hans .
Gdyby jednak się okazało że bardzo się myliłem to wcale nie – ja tylko halucynowałem.