Egy férfi súlyos mérgezést szenvedett, miután a ChatGPT mesterséges intelligencia által generált étkezési tanácsokat követett. A történet rávilágít a nagyméretű nyelvi modellek (LLM) használatával járó kockázatokra, különösen az egészségügyi tanácsadás terén. Bár a ChatGPT képes komplex kérdésekre válaszolni, a válaszai nem mindig helyesek vagy biztonságosak. Ebben az esetben a férfi tévesen azt hitte, a szomszédja mérgezi, holott valójában a chatbot által javasolt étel okozta a problémát. Fontos megjegyezni, hogy az AI nem helyettesíti az orvosi szakértelmet.
Ez az eset komoly kérdéseket vet fel az AI felelősségével és a felhasználók tájékoztatásának szükségességével kapcsolatban. A ChatGPT és hasonló platformok fejlesztőinek egyértelműen fel kell tüntetniük, hogy a szolgáltatásuk nem alkalmas orvosi tanácsadásra, és a felhasználókat arra kell ösztönözni, hogy konzultáljanak képzett szakemberekkel. Emellett a felhasználóknak is kritikusabban kell hozzáállniuk az online talált információkhoz, különösen, ha azok az egészségüket érintik. Az ételmérgezés súlyos következményekkel járhat, ezért mindig megbízható forrásból tájékozódjunk az étkezéssel kapcsolatban, és figyeljünk a testünk jelzéseire.