A techmilliárdos szerint a szintetikus adatokra támaszkodó önálló tanulásra kellene áttérni, bár egyesek arra figyelmeztetnek, hogy ez a nyelvi modellek összeomlását okozhatja.
Mi történik, ha a mesterséges intelligencia rossz adatokat tanul meg, és emiatt szükségszerűen félrevezeti a döntéshozókat? A toxikus adatok eltávolítása mellett hogyan garantálható, hogy az MI csak addig kezeljen érzékeny adatokat, ameddig szükséges és a jogszabályok azt megengedik? Ezek a kérdések vezették az IBM legújabb fejlesztéseit, amelyeknek köszönhetően a modellek képesek a megbízhatóságot és a jogi megfelelést egyaránt támogatva szelektíven „elfelejteni” bizonyos információkat. Ez az unlearning technológia a szakértők szerint fontos mérföldkő.
Az Apple mesterséges intelligenciával foglalkozó kutatócsoportja azt vizsgálta, hogyan képesek kezelni a matematikai érvelési feladatokat a vezető nagy nyelvi modellek (LLM). Arra az eredményre jutottak, hogy közel sem biztos, hogy ezek a rendszerek olyan okosak, mint amilyennek tűnnek.
<strong>Megnéztük, hozhat-e érdemi változást az európai felhasználók magánadatainak védelmében az EU mesterséges intelligenciával foglalkozó jogszabálya</strong>.
A Cornell Egyetem kutatása rávilágít, hogy a beszélt nyelv dialektusa befolyásolhatja azt, hogy miként érzékelik a mesterséges intelligencia algoritmusai az egyéneket. Ez pedig azután befolyásolja a jellemükkel, foglalkoztathatóságukkal és a potenciális bűnözéssel kapcsolatos előítéleteket.
A Google első mesterségesintelligencia-alapú chatbotja, a Bard csak több hónapnyi csúszással vált elérhetővé Európában, és most ugyanúgy késik a minden másnál jobbnak ígért Gemini is.
A Google minden eddiginél erősebb hardvert épített a mesterséges intelligencia betanításához és használatához. Az eszköz a korábbinál 2,8-szer gyorsabban tud betanítani olyan nagy nyelvi modelleket, mint amilyen a ChatGPT is.
A mesterséges intelligencia (MI) tökéletlenségeit megismerve sokkal jobban megérthető az emberi agy működése, például nyelvfeldolgozó képessége – foglalták össze eredményeiket amerikai kutatók.
Ma már a chatbotok tudása (azaz a beléjük táplált információmennyiség) olyan hatalmas, hogy mintázatok észlelésével olyan dolgokat deríthetők ki általuk személytelennek tűnő csevegésekből, amire a hús-vér emberek sohasem gondolnának.
Nyugodtan hajtson át a kereszteződésen a piros lámpa ellenére: az IBM kutatói bebizonyították, hogy elvileg bármilyen tanács adására rá lehet venni a nagy nyelvi modelleket. És ha a lehetőség megvan, akkor csak idő kérdése, hogy ne kerüljön rossz kezekbe a megvalósítás.