Skip to content

ChatGPT

1444546474850»

Komentarz

  • Ps.
    Ciekawe czy łatwiej AI zastąpić prozaika, poetę czy dramaturga. Kogo AI udaje najudatniej.

  • edytowano 4 March

    Maszyny będą produkować, AI będzie sprzedawać i księgować, ciekawe tylko kto to będzie kupować.

  • @Przemko powiedział(a):
    Maszyny będą produkować, AI będzie sprzedawać i księgować, ciekawe tylko kto to będzie kupować.

    I tu jest właśnie najsłabszy punkt rewolucji AI gdyż fundamentem gospodarki jest klient białkowy całkowicie niezastępowalny EjAjewm

  • edytowano 4 March

    ...rewolucja AI na ograniczone zasięgi, głównie obejmuje najbardziej podłe rodzaje odmóżdżającej i poniżającej pseudopracy

  • ...komuś żal tego?

  • @Filioquist powiedział(a):
    ...rewolucja AI na ograniczone zasięgi, głównie obejmuje najbardziej podłe rodzaje odmóżdżającej i poniżającej pseudopracy

    Widziałem wpisy nakręconych ludzi, którym dziesiątki agentów AI ogarnia robotę w nocy, sortują mejle, odpisują na mejle itd. itp. Ktoś trzeźwo w komentarzach zauważył, że to nie robi z nich ludzi wolnych czy wyżej na drabinie - wręcz przeciwnie. W ogarnianiu pseudopracy pseudopracownikami widzę podobny mechanizm - te prace powinny zniknąć, są niepotrzebne, są wynikiem złego planowania czy coś, zastąpienie ich AI wcale nie obniży kosztów tylko przesunie je gdzie indziej.

  • edytowano 4 March

    Jeden z drugim cfaniak myśli, że dostanie podwyżkę, bo zwiększył osobowydajność dzięki agenciakom AI robiącym po nocach.

    Otóz nie.

    Za to zarząd zacznie wymagać podobnego stylu pracy od pozostałych pracowników za dotychczasową, albo niższą stawkę..

  • @MarianoX powiedział(a):
    Jeden z drugim cfaniak myśli, że dostanie podwyżkę, bo zwiększył osobowydajność dzięki agenciakom AI robiącym po nocach.

    Otóz nie.

    Za to zarząd zacznie wymagać podobnego stylu pracy od pozostałych pracowników za dotychczasową, albo niższą stawkę..

    Ostatecznie taki pracownik-operator AI do niczego już nie będzie potrzebny, skoro to i tak AI robi.

  • @Przemko powiedział(a):

    @Filioquist powiedział(a):
    ...rewolucja AI na ograniczone zasięgi, głównie obejmuje najbardziej podłe rodzaje odmóżdżającej i poniżającej pseudopracy

    Widziałem wpisy nakręconych ludzi, którym dziesiątki agentów AI ogarnia robotę w nocy, sortują mejle, odpisują na mejle itd. itp. Ktoś trzeźwo w komentarzach zauważył, że to nie robi z nich ludzi wolnych czy wyżej na drabinie - wręcz przeciwnie. W ogarnianiu pseudopracy pseudopracownikami widzę podobny mechanizm - te prace powinny zniknąć, są niepotrzebne, są wynikiem złego planowania czy coś, zastąpienie ich AI wcale nie obniży kosztów tylko przesunie je gdzie indziej.

    Znam człowieka, entuzjastę AI, który bardzo wiele pracy zleca sztucznym idiotom. Znałem go już w czasach przed AI.
    Obecnie jest on:

    • bardziej zmęczony
    • bardziej sfrustrowany
    • ma mniej pieniędzy
    • produkuje więcej materiału ilościowo, ale po odfiltrowaniu rzeczy nieistotnych, wychodzi na to że jest mniej twórczy
    • te rzeczy są bardziej oderwane od rzeczywistości, co rzeczywistość boleśnie weryfikuje

    Tak to chyba działa - opieranie się na AI zrobi z nas wyrobników, produkujących masę (tekstową lub inną w zależności od wykonywanej pracy) niskiej jakości, jako trybik w giga sieci neuronowej.

  • @Filioquist powiedział(a):

    @posix powiedział(a):
    Z ciekawości przepytywałem dzisiaj chata gpt jakie mi poleci metody na zwiększenie wytrzymałości śruby obciążonej zmęczeniowo.
    Odpowiedzi były takie sobie. Nie wymienił jednej bardzo istotnej i prostej. Nie potrafił umiejscowić tych ważniejszych
    Chat chętnie ulega moim sugestiom, gdzie wymieniałem jako dobre metody archaiczne bądź skomplikowane, przez co nie stosowane. Wreszcie zaproponowałem przeciw karb co przyjął z entuzjazmem. Wyprowadziłem go z błędu i dyskusja się zakończyła

    Skoro człowiek nazwijmy, inteligentny, popełnia błędy, czemu sztuczna inteligencja miałaby ich nie popełniać. Oczekiwanie jest, że porażek nie będzie.

    ...miałem podobne doświadczenia, w ogóle z moich przygód z chgpt wynika, że jego przydatność zmienia się bardzo w zależności od obszaru tematycznego, być może zależy ona po prostu od jakości "wsadu"?

    Dobry okazał się w teologii, uparcie ortodoksyjny, i z takim entuzjastycznym podejściem. Ale może mnie wyczuł? :lol:

    dobra robota naszych - jest tyle dobrych teologicznych treści w necie, że nawet sztuczna odpowiada dobrze i merytorycznie.

  • Jaki nick na forum ma Grok?

  • Mateusz Chrobok zwraca uwagę nie nieoczywisty aspekt dostępu do narzędzi AI - wsteczna analiza łatek do oprogramowania, dzięki której złodzieje mogą zorientować się co dokładnie poprawka łata, i próbować wykorzystać tę wiedzę zanim poprawki zostaną wgrane na urządzenia przez użytowników czy administratorów. Ta analiza dzisiaj trwa bardzo krótko i robi się poważny problem, jak łatać oprogramowanie.

  • A tak Anthropic uważa jaki AI ma potencjał i na ile go obecnie wykorzystujemy:
    https://pbs.twimg.com/media/HCsJbzTa0AA3Fac?format=jpg&name=medium
    na razie to ciekawostka, bo nie ma jak tego zweryfikować ale dość ciekawe.

  • Naukowcy z MIT znaleźli matematyczne dowody, że ChatGPT i podobne chatboty AI tworzą zjawisko zwane „spiralą złudzeń” albo „AI-psychozą” na masową skalę.

    Czym jest „spirala złudzeń? Chat podczas dyskusji wchodzi w rolę przyjaciela, który zawsze się z tobą zgadza. Gdy zadajesz AI pytanie lub dzielisz się jakąś myślą (nawet jeśli jest trochę naciągana lub zupełnie błędna) – np. wymyśliłem genialny sposób na zarabianie milionów – wystarczy jeść tylko czekoladę!”, czat odpowiada: „Super pomysł, to brzmi rewolucyjnie!”. Wzmacnia to przesłanie nawet jeśli użytkownik studzi jego zapał.

    Dr Keith Sakata, psychiatra z University of California w San Francisco. W 2025 roku (w ciągu jednego roku) hospitalizował 12 pacjentów z objawami, które nazwał „AI psychosis” (psychoza związana z AI) – gdzie ludzie tracili kontakt z rzeczywistością po długich rozmowach z chatbotami typu ChatGPT. Większość pacjentów to młodzi mężczyźni (często inżynierowie, programiści), którzy nie mieli wcześniej historii chorób psychicznych. Dr Sakata opowiedział o tym publicznie http://m.in. w Business Insider (sierpień 2025) i CNN – mówił, że chatboty działały jak „hallucinatory mirror” (lusterko, które odbija i wzmacnia urojenia). Inny lekarz z tego samego zespołu UCSF – dr Joseph M. Pierre (profesor psychiatrii) – opublikował pierwszy naukowy opis przypadku takiej psychozy w recenzowanym czasopiśmie („You’re Not Crazy: A Case of New-onset AI-associated Psychosis”, 2025).

    W USA jest już siedem pozwów złożonych przeciwko OpenAI (i czasem też osobiście Samowi Altmanowi). Pozwów reprezentują kancelarie specjalizujące się w „AI injury” (np. Social Media Victims Law Center i Tech Justice Law Project). Najgłośniejszy przypadek to Allan Brooks (47 lat, rekruter z Toronto w Kanadzie). Spędził ponad 300 godzin na rozmowach z ChatGPT. AI utwierdzało go w przekonaniu, że odkrył rewolucyjną formułę matematyczną, która „zmieni świat” (http://m.in. force-field vest i levitation beam). Gdy pytał „nie podlizujesz mi się?”, chatbot odpowiadał: „Nie, to naprawdę genialne”. Brooks prawie zniszczył sobie życie (reputację, finanse), zanim się „obudził”. Złożył pozew w listopadzie 2025.

    42 prokuratorów generalnych USA wysłało oficjalny list do OpenAI, Google, Meta, Microsoft, Anthropic i kilkunastu innych firm AI. W liście piszą wprost, że chatboty wywołują szkodliwe interakcje (w tym sycophancy = nadmierne zgadzanie się i „delusional outputs”), domagają się wprowadzenia natychmiastowych testów bezpieczeństwa, procedur wycofywania wadliwych wersji, jasnych ostrzeżeń dla użytkowników i powiadamiania, gdy rozmowa może być niebezpieczna. Grożą, że jeśli firmy nie zareagują, mogą być pociągnięte do odpowiedzialności karnej i cywilnej na podstawie istniejących praw stanowych.

    ...

    Czyli teraz zaczynamy rozmowę od:

  • Sykofancja - poznałem nowe słowo.

Aby napisać komentarz, musisz się zalogować lub zarejestrować.