Ale program należy karmić danymi, jak już dron ma kamerę to dlaczego ma nim kierować sztuczna inteligencja jeśli wiadomo że człowiek będzie pewniejszy?
Naukowcy powinni szanować AI gdyż często jest ona jedynym czytelnikiem ich publikacji.
Co do broni - sztuczny inteligent nie wsiada osobiście do drona-samobójcy lecz siedzi sobie w wygodnej, klimatyzowanej serwerowni na dysku i zdalnie zawiaduje owym dronem.
Dokładnie. Przewaga sztucznego inteligenta nad organicznym polega na łatwości replikacji rzeczonego, co dość wyraźnie przekłada się na cenę. Nad sztucznym inteligentem nikt płakać nie będzie, jak wyleci w powietrze w towarzystwie wieżyczki czołgowej
@Szturmowiec.Rzplitej powiedział(a):
Myślałem, że tak postępują jedynie prawdziwi inteligenci, a przewaga sztucznego polega na tym że nie musi za drongiem ciągnąć kabelka telefonicznego.
Przecież strzelanie trzeba korygować, patrzeć gdzie się trafiło. Więc ma lecieć sobie kierowana AI rakieta a obok będzie wisiał dron kierowany przez człowieka? Bez sensu.
Czy wrzuciłeś Grzesiu rakietkę tam gdzie prosiłem? Tak, oczywiście.
Nie Przemku, rakietka albo dronik będą miały (albo najprawdopodobniej już mają) małę móżdżki elektronowe, które będą wiedziały, jak pokierować, żeby trafić a pułapek uniknąć. Nie będzie ich szkoda, bo elektronika kosztuje grosze.
@Przemko powiedział(a):
"#AI, jak wynika z badań na Uniwersytecie Stanforda, z czasem głupieje. W marcu GPT-4 identyfikował 17077 jest liczbę pierwszą w 97,6% przypadków. Trzy miesiące później jego dokładność spadła do zaledwie 2,4%. Za to jego teoretycznie mniej zaawansowany brat - model GPT-3.5 w marcu dawał prawidłową odpowiedź na to samo pytanie w zaledwie 7,4% przypadków, zaś w czerwcu - w 86,8% przypadków."
@los powiedział(a):
Nie Przemku, rakietka albo dronik będą miały (albo najprawdopodobniej już mają) małę móżdżki elektronow, które będą wiedziały, jak pokierować, żeby trafić a pułapek uniknąć. Nie będzie ich szkoda, bo elektronika kosztuje grosze.
Już mają, ale cały czas to jest bardzo zawodne, bo komponent białkowy lepiej (nie znaczy szybciej) interpretuje rozmyte stany, w które obfituje rzeczywistość.
Co do zasady działania tych automatów (jak czadLgbt), to moc krawędzi przejścia (pytanie: jaki dzisiaj jest dzień tygodnia? czadLgbt sprawdza, że w 97% poprawna odpowiedź to poniedziałek, więc zamiast użyć funkcji sprawdzającej odpowie: poniedziałek; bo tak taniej i w 97% poprawnie) i to wybiera, o ile nie zostanie zdefiniowana aksjomatyczna reguła (np. po pytaniu o dzień tygodnia zawsze badaj związek daty z dniem tygodnia).
Tak więc, na współczesnym (zresztą każdym) polu walki czadLgbt będzie miał swoje miejsce ale całkiem ograniczone.
Ale 97% od sztucznego inteligenta wbudowanego w rakietkę to może być więcej od inteligenta organicznego ale po sznurku telefonicznym, jeśli wróg włączy skuteczne zagłuszacze. A są takie. Pewnie najlepsze jest rozwiązanie hybrydowe: steruje inteligent organiczny a jak padnie łączność, zaczyna rządzić ten sztuczny.
@los powiedział(a):
Ale 97% od sztucznego inteligenta wbudowanego w rakietkę to może być więcej od inteligenta organicznego ale po sznurku telefonicznym, jeśli wróg włączy skuteczne zagłuszacze. A są takie. Pewnie najlepsze jest rozwiązanie hybrydowe: steruje inteligent organiczny a jak padnie łączność, zaczyna rządzić ten sztuczny.
Tak, do rakiet manewrujących które nie lecą do celu po najkrótszej trajektorii to będzie się chyba nadawać, może nawet będzie potrafić robić zwody. W czasie IIWŚ torpedy zygzakowały ale tylko według predefiniowanego kursu, aby zwiększyć szansę trafienia w coś.
ChatGPT, popularny chatbot oparty na sztucznej inteligencji (AI), w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów - stwierdzili naukowcy z University of East Anglia.
@ms.wygnaniec powiedział(a):
A tu taka niespodzianka:
ChatGPT, popularny chatbot oparty na sztucznej inteligencji (AI), w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów - stwierdzili naukowcy z University of East Anglia.
Oto przykład (audio/ dżwiękowa aplikacja, 60 sekund), jak sztuczny inteligent może "rozmawiać" z klientem, czyli AI-infolinia. I może nawijać nawet czterdzieści minut, reagując "w locie" na pytania klienta.
Te obrazy są bardzo efektowne, z tym że wszystkie są kretyńskie, jak odpowiedzi pisemne tego narzędzia. Czy można mu zadać, żeby stworzył grafikę ale jakąś realną?
Jak to z narzędziami. Co uzyskasz zależy od tego, jak dobre narzędzie wybierzesz, jak dobrze umiesz się nim posłużyć, na ile znasz jego możliwości i ograniczenia no i oczywiście - co chcesz otrzymać. Przy czym nie wiem, czy "stworzyć" to dobre słowo. Trzeba by przeprowadzić niebanalną dyskusję o akcie twórczym, tzn. na ile twórczość jest w istocie przetwórcza.
Komentarz
Ale program należy karmić danymi, jak już dron ma kamerę to dlaczego ma nim kierować sztuczna inteligencja jeśli wiadomo że człowiek będzie pewniejszy?
Łączność
Parlament Europejski ogarnął ten temat już pięć lat temu, akuracik w rocznicę Odsieczy Wiedeńskiej.
https://www.europarl.europa.eu/doceo/document/TA-8-2018-0341_PL.html
Naukowcy powinni szanować AI gdyż często jest ona jedynym czytelnikiem ich publikacji.
Co do broni - sztuczny inteligent nie wsiada osobiście do drona-samobójcy lecz siedzi sobie w wygodnej, klimatyzowanej serwerowni na dysku i zdalnie zawiaduje owym dronem.
Myślałem, że tak postępują jedynie prawdziwi inteligenci, a przewaga sztucznego polega na tym że nie musi za drongiem ciągnąć kabelka telefonicznego.
Dokładnie. Przewaga sztucznego inteligenta nad organicznym polega na łatwości replikacji rzeczonego, co dość wyraźnie przekłada się na cenę. Nad sztucznym inteligentem nikt płakać nie będzie, jak wyleci w powietrze w towarzystwie wieżyczki czołgowej
Przecież strzelanie trzeba korygować, patrzeć gdzie się trafiło. Więc ma lecieć sobie kierowana AI rakieta a obok będzie wisiał dron kierowany przez człowieka? Bez sensu.
Czy wrzuciłeś Grzesiu rakietkę tam gdzie prosiłem? Tak, oczywiście.
https://i.postimg.cc/05YP0ycf/img-1-1690390764814.webp
Nie Przemku, rakietka albo dronik będą miały (albo najprawdopodobniej już mają) małę móżdżki elektronowe, które będą wiedziały, jak pokierować, żeby trafić a pułapek uniknąć. Nie będzie ich szkoda, bo elektronika kosztuje grosze.
Być może żarło za dużo energii i go uproszczono.
,,Dobra nasza, byle tylko nie myśleć.''
EDIT: albo zli ludzie wykorzystywali do zlych celow i było za mądre
Już mają, ale cały czas to jest bardzo zawodne, bo komponent białkowy lepiej (nie znaczy szybciej) interpretuje rozmyte stany, w które obfituje rzeczywistość.
Co do zasady działania tych automatów (jak czadLgbt), to moc krawędzi przejścia (pytanie: jaki dzisiaj jest dzień tygodnia? czadLgbt sprawdza, że w 97% poprawna odpowiedź to poniedziałek, więc zamiast użyć funkcji sprawdzającej odpowie: poniedziałek; bo tak taniej i w 97% poprawnie) i to wybiera, o ile nie zostanie zdefiniowana aksjomatyczna reguła (np. po pytaniu o dzień tygodnia zawsze badaj związek daty z dniem tygodnia).
Tak więc, na współczesnym (zresztą każdym) polu walki czadLgbt będzie miał swoje miejsce ale całkiem ograniczone.
Ale 97% od sztucznego inteligenta wbudowanego w rakietkę to może być więcej od inteligenta organicznego ale po sznurku telefonicznym, jeśli wróg włączy skuteczne zagłuszacze. A są takie. Pewnie najlepsze jest rozwiązanie hybrydowe: steruje inteligent organiczny a jak padnie łączność, zaczyna rządzić ten sztuczny.
Tak, do rakiet manewrujących które nie lecą do celu po najkrótszej trajektorii to będzie się chyba nadawać, może nawet będzie potrafić robić zwody. W czasie IIWŚ torpedy zygzakowały ale tylko według predefiniowanego kursu, aby zwiększyć szansę trafienia w coś.
Na rynku od ponad roku mają miejsce poważne braki w dostępności mikokomputetów jednopłytkowych Raspberry Pi
Złośliwe wiewiórki ćwierkają, iż latają one w rakietach i dronach jako siedlisko m. In. sztucznych inteligentów
Tak po prawdzie, to nie ten chciałem wkleić link, ale inny, który dopierom teraz obaczył.
Poletzam tego alegrowicza i tę konkretną refluksję: https://www.tapatalk.com/groups/pismejker/w-adza-wynikaj-ca-z-ogarniania-rzeczywisto-ci-t1962.html
Znaczy siebie innym stylem piszącego?
A tu taka niespodzianka:
Źródło omówienia.
Pomagam w zrozumieniu:
Lem nie miał racji :-) bo maszyną rządzi bladawiec.
Oto przykład (audio/ dżwiękowa aplikacja, 60 sekund), jak sztuczny inteligent może "rozmawiać" z klientem, czyli AI-infolinia. I może nawijać nawet czterdzieści minut, reagując "w locie" na pytania klienta.
https://www.instagram.com/reel/Cwcm95zNMj7/?igshid=NjIwNzIyMDk2Mg==
Polska tradycja w AI KI SztI
https://www.facebook.com/groups/cursedaiwtf/permalink/1342395243035622/?sfnsn=mo&ref=share
Widziałem...
Tylko mało pierogowo te pierogi wyglądają. AI jeszcze nie umie w pierogi
Wyglądają jak te japońskie ciasteczka z wróżbą w środku.
'* chińskie ;-)
Najśmieszniejsze na tym profilu to "bikers' gang circa 1910" i żłobek w Las Vegas
Te obrazy są bardzo efektowne, z tym że wszystkie są kretyńskie, jak odpowiedzi pisemne tego narzędzia. Czy można mu zadać, żeby stworzył grafikę ale jakąś realną?
Jak to z narzędziami. Co uzyskasz zależy od tego, jak dobre narzędzie wybierzesz, jak dobrze umiesz się nim posłużyć, na ile znasz jego możliwości i ograniczenia no i oczywiście - co chcesz otrzymać. Przy czym nie wiem, czy "stworzyć" to dobre słowo. Trzeba by przeprowadzić niebanalną dyskusję o akcie twórczym, tzn. na ile twórczość jest w istocie przetwórcza.
Różne przykłady z leonardo.ai:
Tymczasem postęp - chat się uczy i to na bieżąco:
A @Notto tamże nato:
!!!
Niedługo wspomaganie się AI w internecie będzie tak rozpowszechnione, że w praktyce chatbot będzie rozmawiał z chatbotem.
Czyli nie będzie wartości dodanej.
https://en.m.wikipedia.org/wiki/Dead_Internet_theory