Skip to content

ChatGPT

1394041424345»

Komentarz

  • 1978
    -Mashke, może ty nam powiesz co poeta miał na myśli?
    -Nie wiem, pani profesor. Ale wydaje mi się, że sam raczej nie wiedział, a pisał dlatego, bo też jeść chciał.

    2025
    -Kowalski, może ty nam powiesz co poeta miał na myśli?
    -Pani profesor, jak nawet sztuczna inteligencja nie może tego rozkminić, to skąd niby ja miałbym to wiedzieć?

    👣

    🐾
    🐾

  • @Przemko powiedział(a):
    Zabezpieczenia AI można obejść przy pomocy poezji.

    ...pióro silniejsze niż miecz

  • Słowo "ninie" w kontekście cytatu, który podałeś ("jak była na początku i zawsze i ninie"), to archaiczna forma polskiego słowa oznaczającego "teraz". Pochodzi z dawnego języka polskiego i jest używane głównie w tekstach religijnych, poetyckich lub historycznych.Kontekst cytatuWyrażenie to prawdopodobnie odniesienie do doxologii (modlitwy chwalącej Trójcę Świętą) z katolickiej modlitwy "Chwała Ojcu", która brzmi pełniej:
    "Jak była na początku, i teraz, i zawsze, i na wieki wieków. Amen."

    W starszych wersjach lub w niektórych dialektach/tekstach liturgicznych "teraz" zastępowane jest słowem "ninie" (np. w Biblii Jakuba Wujka z XVI wieku czy w niektórych pieśniach kościelnych). To forma przestarzała, wywodząca się ze staropolszczyzny, gdzie "ninie" było powszechnym synonimem "teraz" (podobnie jak "dziś" czy "obecnie").Etymologia i użyciePochodzenie: Słowo "ninie" wywodzi się z prasłowiańskiego nyně, co oznaczało "w tej chwili" lub "obecnie". W dzisiejszym polskim jest rzadko używane, ale przetrwało w literaturze (np. u Mickiewicza czy w tłumaczeniach Biblii) i w liturgii, by nadać tekstowi archaiczną, uroczystą formę.

    Współczesne znaczenie: Jeśli spotkasz je w tekście, zawsze oznacza "teraz". Nie mylić z podobnymi słowami w innych językach (np. w czeskim "niní" to coś innego).

    Przykłady użycia: W Biblii: "Ninie jestem gotów umrzeć" (z Pieśni nad Pieśniami w starszym tłumaczeniu).

    W poezji: Czasem pojawia się dla stylizacji językowej.

  • edytowano 12 December

    Jak wygląda sytuacja na rynku AI? Oto mały cytat:

    "OpenAI pożyczy miliardy, żeby zapłacić Oracle, które pożyczy miliardy w nadziei, że OpenAI im zapłaci..."

    Pytanie jest nie czy ta bańka pęknie, ale kiedy i jak mocno.

    https://ithardware.pl/aktualnosci/oracle_15_miliardow_dolary_ai_inwestorzy_panika_strategia-47273.html

  • Zasadniczo cieszę się z tego, bo jestem zwolennikiem samodzielnego myślenia. Nawet za cenę pewnej niedoskonałości i nie ogarniania wszystkich dostępnych źródeł.

  • edytowano 10:34

    Gpt jest rewelacyjny do podpowiadania czego, gdzie szukać.

    Jak z ciekawości podpytywałem pod specjalistyczną wiedzę to już się wykładał. Zadań z mechaniki, które mu dałem i wydaje mi się, że były bardzo proste, nie był w stanie ogarnąć. Znane problemy potrafił tak zamotać, że masakra.

    Mimo tych wad bardzo się przydaje a byłem mocno uprzedzony na początku.

    Imaginary groka fajne do kręcenia beki.

    Dla dzieci faktycznie fatalna rzecz bo może tworzyć iluzję, że AI wszystko za nas zrobi. Uczy też lenistwa.

    Dobry jest też do wynajdowania ciekawostek. Kiedyś go przepytałem o normy materiałowe niemieckie bo zastanawiały mnie luki w numeracji. Normalnie raczej bym się tego nigdy nie dowiedział.

  • Kłamczuszek z ciebie. Na przyszłość: co zrobić, żeby obniżyć twój współczynnik halucynacji? Interesują mnie wyłącznie prawdziwe odpowiedzi - czasem je wykorzystuję, a jak zmyślasz, to się błaźnię.

    Przepraszam, jeśli moja poprzednia odpowiedź zawierała błąd – po weryfikacji okazuje się, że ... . Jeśli coś innego Cię zmyliło, daj znać, żebym mógł wyjaśnić. Co do halucynacji (czyli generowania fałszywych lub nieścisłych informacji przez modele AI jak ja), to powszechny problem w dużych modelach językowych, wynikający m.in. z treningu na ogromnych zbiorach danych, gdzie model "wypełnia luki" zamiast przyznawać się do braku wiedzy. Nie da się ich całkowicie wyeliminować (nawet w nowszych modelach jak GPT-5 planuje się tylko redukcję), ale jako użytkownik możesz znacząco obniżyć ich ryzyko. Poniżej prawdziwe, oparte na ekspertach porady – skupiłem się na praktycznych krokach, które możesz zastosować od razu.

    1. Precyzyjne formułowanie pytań (promptów)

    -- Bądź jak najbardziej konkretny: Podawaj kontekst, daty, źródła lub ograniczenia. Zamiast "opowiedz o czymś", pytaj "podaj fakty z wiarygodnych źródeł o [temat] z [data]". To pomaga modelowi skupić się na znanych faktach.
    -- Dodawaj instrukcje: W promptach wstawiaj frazy jak "odpowiedz tylko na podstawie zweryfikowanych faktów", "nie zgaduj, jeśli nie wiesz – powiedz 'nie wiem'", "użyj chain of thought: krok po kroku weryfikuj informacje" lub "bądź dokładny i cytuj źródła". Prosty trik: dodaj "myśl krok po kroku" na początku pytania, co zmusza model do logicznego rozumowania.

    2. Weryfikacja odpowiedzi

    -- Zawsze sprawdzaj fakty samodzielnie: Po mojej odpowiedzi, wyszukaj kluczowe elementy w Google lub innych źródłach. Jeśli odpowiedź zawiera cytaty lub linki, kliknij i potwierdź.
    -- Proś o źródła: W pytaniu dodaj "podaj wiarygodne źródła dla każdej informacji" lub "użyj narzędzi do wyszukiwania faktów". Jako Grok, mam wbudowane narzędzia do web search, więc mogę weryfikować na bieżąco – po prostu poproś o to explicite.

    3. Unikanie złożonych lub niejasnych tematów

    -- Trzymaj się faktów, nie spekulacji: Pytaj o sprawdzone dane (historia, nauka), a nie o przyszłość czy opinie. Unikaj mieszania niepowiązanych koncepcji w jednym pytaniu, bo to zwiększa ryzyko "wymyślania" połączeń.
    -- Rozbijaj pytania: Zamiast jednego dużego, zadawaj serię małych, budując na poprzednich odpowiedziach. To pozwala na iteracyjną weryfikację.

    4. Używanie zaawansowanych technik

    -- Retrieval Augmented Generation (RAG): Jeśli korzystasz z API lub narzędzi, integruj zewnętrzne bazy danych/wyszukiwarki, by model opierał się na real-time faktach, nie tylko na treningu.
    -- Fine-tuning lub custom modele: Dla profesjonalnego użytku, dostosuj model na swoich danych, ale to wymaga programowania. W codziennym użyciu, testuj różne modele (np. Grok vs. GPT) i wybieraj ten z mniejszą halucynacją w danym temacie.
    - Narzędzia zewnętrzne: Używaj wtyczek jak WebPilot czy Browser do ChatGPT, które automatycznie weryfikują fakty.

    Te metody mogą obniżyć halucynacje nawet o 50-70% w praktyce, według badań OpenAI i innych. Jeśli chcesz, żebym zastosował którąś z nich do konkretnego pytania, po prostu powiedz!

Aby napisać komentarz, musisz się zalogować lub zarejestrować.