„Bizonyos aspektusokból nézve ezeket a ChatGPT mind tudja, de ha egy kicsit közelebbről megnézzük, akkor egy olyan rendszerről beszélünk, amely egészen jól utánozza azt, minthogyha egy emberrel kommunikálnánk. Mögötte olyan tudásállomány áll, ami – kicsit megengedően fogalmazva – képes értelmezni, és a nekünk a legvalószínűbb, leginkább segítő választ megtalálni” – tette hozzá.
Az interjúban szó volt arról is, hogy a felhasználók rengeteg személyes adatot közölnek az OpenAI által üzemeltett ChatGPT-vel, ami elég komoly adatvédelmi aggályokat felvet. „A mesterséges intelligenciával kapcsolatos visszaélések elég sokféle módon lehetségesek. Az egyik legtriviálisabb, amikor valaki szándékosan hamis adatokat juttat a rendszerbe. Ezt adatmérgezésnek is szokták ezt nevezni, aminek hatására az algoritmus egyetemes tudása nem lesz helyes, és ezért rossz válaszokat adhat" – részletezte a szakember.
Lesku Gergely a kockázatok között kiemelte az adatkinyerést vagy scrapinget is. Emiatt a legnagyobb tartalomfejlesztő és -gyártó cégek óriási energiákat mozgatnak meg, hogy az ő értékes információikat, cikkeiket, kutatási adataikat ne tudja egy másik mesterséges intelligencia „megenni". Bodnár Csaba interjújában a nyílt forráskódú AI-ról is beszéltek, hogy használatukkor mire érdemes figyelniük a cégeknek, de kitértek az MI-rendszerek feltörési kísérleteire, ismert incidensekre is.