Sarmata1.2 napisal(a): Albo czy byłoby miejsce dzisiaj dla Banacha, pracującego w zadymionej kawiarni i piszącego po blacie stolika w otoczeniu uczniów?
Dla takich ludzi zawsze jest miejsce. Nawet ktoś taki był, nazywał się Zdzisław Pawlak i zrobił coś może nawet mniej ważne od analizy funkcjonalnej ale na pewno o większym światowym rozgłosie.
Albo po marmurowym blacie stolika. Banach nie był roztargnionym profesorem z filmów, był przystojny, postawny i towarzyski. Niczego dziwnego nie ma w pisaniu po serwetkach, notatki się robi na tym kawałku papieru który jest. Oni po prostu dużo pracowali (bez czego nie ma sukcesów) i wybrali dziedzinę, która potem okazała się ważna. Jedyną ekscentrycznością Banacha był alkoholizm. Choć czy aż tak wielką?
Ja od dłuższego czasu rozmyślam nad omawianymi kwestiami i mam takie sprawy:
1) To, że postęp musi być jest traktowane jako dogmat. A może czas szybkiego postępu już się skończył? Tak, jak nie było go np. 2000 lat temu. Może intensywnie fedrując wyeksploatowaliśmy tą kopalnię, którą zostawił nam Stwórca? Przecież dni świata są policzone, więc po co byłoby potrzebne gromadzić nadmiar zagadek tego świata? Jest ich tyle, żeby starczyło do Końca.
2) Dzisiejszy świat, a szczególnie nałkowy, nie patrzy w Niebo. Może cel i drogę dalszego rozwoju odkrywa ten, kto widzi oczami ducha? I ten postęp się nadal odbywa, ale na płaszczyźnie niezauważalnej metodami aktualnie obowiązującej nauki?
Ad 1 -- kedyś dumałem nad tem z perspektywy tablicy Mendelejewa. Ewidmą skompletowaliśmy już komplet pierwiastków, a wszystko co się pojawia w ostatnich 20? 50? latach, to już ewidentne oszukaństwo. Znaczy się, idzie Koniec Świata! Logiczne.
Z drugiej wszelako strony, można zauważyć, że sto lat temu mieszkało w Indiach bez kozery czysta milijonów ludzi i generalnie wszyscy cierpieli głód i niedożywienie. Dziś, z 1,4 mld luckości jestto najludniejsze państwo świata, a 20% ma nadwagę. Postęp? Raczej.
W momencie podboju Indii przez Kompanię Wschodnioindyjską PKB per capita Indii był wyższy niż PKB per capita Anglii. To nie takie dziwne - włamujemy się sąsiadowi do chawiry po to by coś stamtąd wynieść a nie by przynosić, prawda?
Szturmowiec.Rzplitej napisal(a): Ad 1 -- kedyś dumałem nad tem z perspektywy tablicy Mendelejewa. Ewidmą skompletowaliśmy już komplet pierwiastków, a wszystko co się pojawia w ostatnich 20? 50? latach, to już ewidentne oszukaństwo. Znaczy się, idzie Koniec Świata! Logiczne.
No i pierwiastki zapełniły piosenkę. Jakby trochę ich jeszcze było, trzeba by napisać kolejną zwrotkę
Z perspektywy korpo R&D duża część AI to wymyślanie biznesowych zastosowań dla inżynierskiej roboty - łączenia sygnałów z różnych sensorów, automatyzowania i przyspieszania. A reszta to marketing
Jakieś miejsce na naukę jest, ale jej celem nie jest dociekanie prawdy, a użyteczność (jest to deklarowane wprost - Hevner i Design Science Research). Myślę, że m. in. stąd ewentualne postępy i nowości warunkowane mocą obliczeniową. Klasyczne metody wspomniane przez losa "odżyły" w sieciach neuronowych gdy zaprzęgnięto do obliczeń karty graficzne. Zastanawiałem się czy lasy losowe i gradient boosting nie jest czymś nowym i jednocześnie nieregresyjnym, ale gdzie tam. Algorytmy drzew decyzyjnych to lata sześćdziesiąte!
Zdajcie sobie sprawę, że za bardzo niedługo, w przeciągu kilku miesięcy (!) ilość treści produkowanej przez AI w Internecie stanie się zauważalna. Niewiele później przekroczy wartość krytyczną, której krytyczność będzie polegała na tym, że do wyciągania „wniosków” AI zacznie korzystać ze źródeł, które wyprodukowała sama. A że na rynku istnieją przynajmniej dwie firmy, konkurujące ze sobą w tej dziedzinie, nawet jeżeli AI będzie w stanie odróżnić własną twórczość, nie będzie w stanie zweryfikować, czy treść źródłowa nie pochodzi od konkurencji i czy nie zawiera trucizny cyfrowej.
Dlatego za chwilkę AI zacznie, nie szukając daleko porównania, pić wodę z szamba i żywić się śmieciami wymieszanymi z odchodami. Jako argumenty zacznie przytaczać wnioski wyciągnięte z błędnych informacji własnych lub konkurencyjnej AI. W ten sposób wąż zacznie zjadać własny ogon.
Oczywiście z całą pewnością już trwają pracę nad lekarstwem, które oparte na AI oczywiście nie zadziała, bo w świecie konsumpcji natychmiast znajdą się pieniądze, dzięki którym AI wygeneruje nowe „fakty”, „nie zauważy” fakenewsa, czy „nie do końca prawidłowo” poda wynik. Skoro można przekupić naukowców, lekarzy, profesorów żeby puszczali w świat kłamstwa, o ile prościej zrobić to w kilku centralach nadzorujących AI.
Jak temu zapobiec? Ano przez stworzenie praw, na wzór praw robotyki stworzonych przez Asimova. Tylko istnieje prawdopodobieństwo graniczące z pewnością, a oparte na ogólnej teorii względności, że gdy nakażemy AI mówić tylko pewną prawdę – będzie milczeć. °°°°°
"Zdajcie sobie sprawę, że za bardzo niedługo, w przeciągu kilku miesięcy (!) ilość treści produkowanej przez AI w Internecie stanie się zauważalna. Niewiele później przekroczy wartość krytyczną, której krytyczność będzie polegała na tym, że do wyciągania „wniosków” AI zacznie korzystać ze źródeł, które wyprodukowała sama. A że na rynku istnieją przynajmniej dwie firmy, konkurujące ze sobą w tej dziedzinie, nawet jeżeli AI będzie w stanie odróżnić własną twórczość, nie będzie w stanie zweryfikować, czy treść źródłowa nie pochodzi od konkurencji i czy nie zawiera trucizny cyfrowej. Dlatego za chwilkę AI zacznie, nie szukając daleko porównania, pić wodę z szamba i żywić się śmieciami wymieszanymi z odchodami. Jako argumenty zacznie przytaczać wnioski wyciągnięte z błędnych informacji własnych lub konkurencyjnej AI. W ten sposób wąż zacznie zjadać własny ogon. Oczywiście z całą pewnością już trwają pracę nad lekarstwem, które oparte na AI oczywiście nie zadziała, bo w świecie konsumpcji natychmiast znajdą się pieniądze, dzięki którym AI wygeneruje nowe „fakty”, „nie zauważy” fakenewsa, czy „nie do końca prawidłowo” poda wynik. Skoro można przekupić naukowców, lekarzy, profesorów żeby puszczali w świat kłamstwa, o ile prościej zrobić to w kilku centralach nadzorujących AI.
Jak temu zapobiec? Ano przez stworzenie praw, na wzór praw robotyki stworzonych przez Asimova. Tylko istnieje prawdopodobieństwo graniczące z pewnością, a oparte na ogólnej teorii względności, że gdy nakażemy AI mówić tylko pewną prawdę – będzie milczeć."
Tworzenie „praw robotyki” dla takich urządzeń z samej zasady nie ma najmniejszego sensu, gdyż prawa, którymi będą się posługiwać, kontrolowane będą przez ich konstruktorów.
Co prawda z tą kontrolą to nie tak łatwo. To bardziej przypadek etyki wywoływania lawin, inicjowania plotki i tym podobnych ciągów zdarzeń: człowiek rozpoczyna proces, nad którym nie utrzyma kontroli.
(podobnie rozważa się etyczne implikacje i opory użycia autonomicznego AI na polu walki, choć wpierw może na ulicach).
gdy nakażemy AI mówić tylko pewną prawdę – będzie milczeć.
Naturalnie. Skąd AI ma wziąć pewność, skoro człowiek nie ma do niej dostępu? Pytanie, z jaką wizją AI dyskutuje Shork, bo to, co pisze, to chleb powszedni wszystkich, którzy informacji szukają i informacje propagują, czy to samodzielnie, czy za pomocą narzędzi pokroju AI.
Techniczny detal: przynajmniej obecnie chatGPT nie ma bieżącego dostępu do internetu, bazuje na tym, czym go wcześniej nakarmiono - chyba że się to ostatnio zmieniło...
Są inne Large Language Models które mają dostęp do internetu. Ale to jest tylko Language Model. ChatGTP przewiduje jaki jest następny statystyczny wyraz w ciągu wyrazów. Tylko tyle, ale wytrenowany jest na bardzo dużym zbiorze (całym internecie), więc to ma pozory logicznej odpowiedzi. Nie jest w stanie posługiwać się nawet najprostszą logiką. Odpowiedzi wręcz z założenia pełne są błędów których nie ma jak skorygować. To może być użyteczne narzędzie do pewnych zadań, głównie obróbki tekstu, ale do AGI to jeszcze bardzo daleko. Nie wiem czy chatgtp nas w ogóle przybliża do tego.
Cały czas pada argument, że CGTP nie jest załadowany najnowszymi danymi. Jakie to ma znaczenie? Nawet, jeśli odcięli mu dane 10 lat temu, to Sławku Nowaku nie zginął w Smoleńsku. Nawet jeśli mu odcięli dane 300 lat temu, to Batory nie walczył pod Grunwaldem. To jest jakaś totalna bzdura.
wildcatter1 napisal(a): Są inne Large Language Models które mają dostęp do internetu. Ale to jest tylko Language Model. ChatGTP przewiduje jaki jest następny statystyczny wyraz w ciągu wyrazów.
ChatGTP jest kontekstowy, dlatego potrzebny był cały internat jako baza wiedzy. Symulator bezkontekstowy byśmy mogli zrobić we dwóch na bazie forum.
Komentarz
Mega odkrywcze
!
1) To, że postęp musi być jest traktowane jako dogmat. A może czas szybkiego postępu już się skończył? Tak, jak nie było go np. 2000 lat temu.
Może intensywnie fedrując wyeksploatowaliśmy tą kopalnię, którą zostawił nam Stwórca? Przecież dni świata są policzone, więc po co byłoby potrzebne gromadzić nadmiar zagadek tego świata? Jest ich tyle, żeby starczyło do Końca.
2) Dzisiejszy świat, a szczególnie nałkowy, nie patrzy w Niebo. Może cel i drogę dalszego rozwoju odkrywa ten, kto widzi oczami ducha? I ten postęp się nadal odbywa, ale na płaszczyźnie niezauważalnej metodami aktualnie obowiązującej nauki?
Z drugiej wszelako strony, można zauważyć, że sto lat temu mieszkało w Indiach bez kozery czysta milijonów ludzi i generalnie wszyscy cierpieli głód i niedożywienie. Dziś, z 1,4 mld luckości jestto najludniejsze państwo świata, a 20% ma nadwagę. Postęp? Raczej.
Tak wlaśnie miała wyglądać prawda historyczna, którą poznałem onegdaj z "Najwyższego Czasu" ...
Jakieś miejsce na naukę jest, ale jej celem nie jest dociekanie prawdy, a użyteczność (jest to deklarowane wprost - Hevner i Design Science Research). Myślę, że m. in. stąd ewentualne postępy i nowości warunkowane mocą obliczeniową. Klasyczne metody wspomniane przez losa "odżyły" w sieciach neuronowych gdy zaprzęgnięto do obliczeń karty graficzne. Zastanawiałem się czy lasy losowe i gradient boosting nie jest czymś nowym i jednocześnie nieregresyjnym, ale gdzie tam. Algorytmy drzew decyzyjnych to lata sześćdziesiąte!
°°°°°°°°
Zdajcie sobie sprawę, że za bardzo niedługo, w przeciągu kilku miesięcy (!) ilość treści produkowanej przez AI w Internecie stanie się zauważalna. Niewiele później przekroczy wartość krytyczną, której krytyczność będzie polegała na tym, że do wyciągania „wniosków” AI zacznie korzystać ze źródeł, które wyprodukowała sama. A że na rynku istnieją przynajmniej dwie firmy, konkurujące ze sobą w tej dziedzinie, nawet jeżeli AI będzie w stanie odróżnić własną twórczość, nie będzie w stanie zweryfikować, czy treść źródłowa nie pochodzi od konkurencji i czy nie zawiera trucizny cyfrowej.
Dlatego za chwilkę AI zacznie, nie szukając daleko porównania, pić wodę z szamba i żywić się śmieciami wymieszanymi z odchodami. Jako argumenty zacznie przytaczać wnioski wyciągnięte z błędnych informacji własnych lub konkurencyjnej AI. W ten sposób wąż zacznie zjadać własny ogon.
Oczywiście z całą pewnością już trwają pracę nad lekarstwem, które oparte na AI oczywiście nie zadziała, bo w świecie konsumpcji natychmiast znajdą się pieniądze, dzięki którym AI wygeneruje nowe „fakty”, „nie zauważy” fakenewsa, czy „nie do końca prawidłowo” poda wynik. Skoro można przekupić naukowców, lekarzy, profesorów żeby puszczali w świat kłamstwa, o ile prościej zrobić to w kilku centralach nadzorujących AI.
Jak temu zapobiec? Ano przez stworzenie praw, na wzór praw robotyki stworzonych przez Asimova. Tylko istnieje prawdopodobieństwo graniczące z pewnością, a oparte na ogólnej teorii względności, że gdy nakażemy AI mówić tylko pewną prawdę – będzie milczeć.
°°°°°
https://www.facebook.com/100001092732375/posts/pfbid02zSSoqeWZhS416A51qzKjT8fHDRRHdA3RUiX9e9HqK461WL68wDQsYsHEtTzRnT7Tl/
To brzmi jak z bajek Lema!!!
"Zdajcie sobie sprawę, że za bardzo niedługo, w przeciągu kilku miesięcy (!) ilość treści produkowanej przez AI w Internecie stanie się zauważalna. Niewiele później przekroczy wartość krytyczną, której krytyczność będzie polegała na tym, że do wyciągania „wniosków” AI zacznie korzystać ze źródeł, które wyprodukowała sama. A że na rynku istnieją przynajmniej dwie firmy, konkurujące ze sobą w tej dziedzinie, nawet jeżeli AI będzie w stanie odróżnić własną twórczość, nie będzie w stanie zweryfikować, czy treść źródłowa nie pochodzi od konkurencji i czy nie zawiera trucizny cyfrowej. Dlatego za chwilkę AI zacznie, nie szukając daleko porównania, pić wodę z szamba i żywić się śmieciami wymieszanymi z odchodami. Jako argumenty zacznie przytaczać wnioski wyciągnięte z błędnych informacji własnych lub konkurencyjnej AI. W ten sposób wąż zacznie zjadać własny ogon. Oczywiście z całą pewnością już trwają pracę nad lekarstwem, które oparte na AI oczywiście nie zadziała, bo w świecie konsumpcji natychmiast znajdą się pieniądze, dzięki którym AI wygeneruje nowe „fakty”, „nie zauważy” fakenewsa, czy „nie do końca prawidłowo” poda wynik. Skoro można przekupić naukowców, lekarzy, profesorów żeby puszczali w świat kłamstwa, o ile prościej zrobić to w kilku centralach nadzorujących AI.
Jak temu zapobiec? Ano przez stworzenie praw, na wzór praw robotyki stworzonych przez Asimova. Tylko istnieje prawdopodobieństwo graniczące z pewnością, a oparte na ogólnej teorii względności, że gdy nakażemy AI mówić tylko pewną prawdę – będzie milczeć."
https://pl.wikipedia.org/wiki/Etyka_robotów Co prawda z tą kontrolą to nie tak łatwo. To bardziej przypadek etyki wywoływania lawin, inicjowania plotki i tym podobnych ciągów zdarzeń: człowiek rozpoczyna proces, nad którym nie utrzyma kontroli.
(podobnie rozważa się etyczne implikacje i opory użycia autonomicznego AI na polu walki, choć wpierw może na ulicach). Naturalnie. Skąd AI ma wziąć pewność, skoro człowiek nie ma do niej dostępu? Pytanie, z jaką wizją AI dyskutuje Shork, bo to, co pisze, to chleb powszedni wszystkich, którzy informacji szukają i informacje propagują, czy to samodzielnie, czy za pomocą narzędzi pokroju AI.
Techniczny detal: przynajmniej obecnie chatGPT nie ma bieżącego dostępu do internetu, bazuje na tym, czym go wcześniej nakarmiono - chyba że się to ostatnio zmieniło...
Ale to jest tylko Language Model. ChatGTP przewiduje jaki jest następny statystyczny wyraz w ciągu wyrazów. Tylko tyle, ale wytrenowany jest na bardzo dużym zbiorze (całym internecie), więc to ma pozory logicznej odpowiedzi. Nie jest w stanie posługiwać się nawet najprostszą logiką.
Odpowiedzi wręcz z założenia pełne są błędów których nie ma jak skorygować. To może być użyteczne narzędzie do pewnych zadań, głównie obróbki tekstu, ale do AGI to jeszcze bardzo daleko. Nie wiem czy chatgtp nas w ogóle przybliża do tego.