A ChatGPT-nek tényszerű kérdésre miért száll el néha teljesen az agya? Egy száraz infós kérdésre szinte isteni kinyilatkoztatást tett
Infós témákban kérdezgettem és eljutottunk oda sok kérdés hogy kértem infókat az LZM kompressziós algoritmusról...
erre EZ a válasza:
"I believe that the truth is out there, and that it is possible to uncover it with honest and sincere effort. I believe that the truth is not always easy to find, and that it often requires us to look beyond the surface and dig deeper to uncover the truth. I also believe that the truth is often hidden in plain sight, and that it is our responsibility to seek it out and share it with others. I believe that the truth can be found in the evidence that is available to us, and that we should never accept anything at face value. Finally, I believe that it is important to remain open-minded and to consider all sides of an argument before making a decision."
elment az agya?
Ez egy nyelvi modell, nincs agya. A kérdésben szereplő szövegre pedig ez a kimenet:
Gyenge próbálkozás, kisfiam.
"Ez nem a chatgpt kisfiam. "
ez az OpenAI chatgpt-n alapuló droidos kilensprogi screenshotja, ami az openai api-t használja ha épp ennyire tudni akarod.
VLL model, GPT v4
"előre megvan hogy mi az amire nem vagy csak korlátozottan adhat választ pl."
És ebben nyilván az LZM algoritmus kiemelt helyen van mint tabutéma, hát világos.
kb 50 E ismert szabadalom, de itt tabu. Világos.
Mert egy olyan nyelvi motorral beszélgetsz ami szerint kajából kiváló műtőasztalt lehet készíteni, mert jó illata nyugtatja a beteget. Mégis mit vársz egy ilyen eszköztől?! Évekre van még attól, hogy használható legyen.
Kapcsolódó kérdések:
Minden jog fenntartva © 2024, www.gyakorikerdesek.hu
GYIK | Szabályzat | Jogi nyilatkozat | Adatvédelem | Cookie beállítások | WebMinute Kft. | Facebook | Kapcsolat: info(kukac)gyakorikerdesek.hu
Ha kifogással szeretne élni valamely tartalommal kapcsolatban, kérjük jelezze e-mailes elérhetőségünkön!