Proiectul, câștigat în urma unei competiții cu o rată de succes de sub 5%
Centrul de Cercetare în Etică Aplicată (CCEA) al Facultății de Filosofie a UB primește, ca parte dintr-un consorțiu interdisciplinar, o finanțare de peste un milion de euro pentru proiectul de cercetare „NIHAI” (Norms of Assertion In Linguistic Human-AI Interaction). Aceasta a fost posibilă prin apelul „Crisis-Perspectives from Humanities” al programului HERA/CHANSE.
Finanțarea este oferită pentru o perioadă de 36 de luni (martie 2025 – februarie 2028), iar Universitatea din București este singura universitate românească ce are un proiect finanțat în cadrul acestui apel.
Proiectul va fi implementat de un consorțiu european interdisciplinar coordonat de prof. univ. dr. Markus Kneer, cadru didactic la Universitatea din Graz, Austria (liderul proiectului), prof. univ. dr. Markus Christen, cadru didactic la Universitatea din Zurich, Elveția, lect. univ. dr. Mihaela Constantinescu, cadru didactic la Facultatea de Filosofie a Universității din București și director executiv al Centrului de Cercetare în Etică Aplicată (CCEA); asist. univ. dr. Izabela Skoczen, cadru didactic la Universitatea Jagiellonian, Polonia.
Un partener-cheie din industrie este Polaris News, organizație condusă de renumitul jurnalist Hannes Grassegger și axată pe dezvoltarea de instrumente jurnalistice care integrează modele lingvistice mari pentru a susține jurnalismul local independent.
La nivelul Universității din București, echipa de proiect este formată din lect. univ. dr. Mihaela Constantinescu, director de proiect (Principal Investigator România), și de dr. Cristina Voinea, cercetător postdoctoral în cadrul CCEA și cercetătoare Marie Skłodowska-Curie la Oxford Uehiro Institute al Universității din Oxford.
Elaborarea principiilor etice pentru design-ul responsabil al boților conversaționali ce utilizează LLMs
Proiectul „NIHAI” își propune să elaboreze principii etice pentru design-ul responsabil al boților conversaționali (chatbots) ce utilizează modele lingvistice mari (Large Language Models – LLMs), precum ChatGPT, Claude sau Gemini: reguli fundamentate filosofic și empiric, care specifică ce ar trebui și ce nu ar trebui să spună acești boți conversaționali.
Pe măsură ce dezinformarea, știrile false și teoriile conspirației circulă tot mai liber, încrederea în media, știință și guvern se erodează. Această „criză a comunicării” a fost amplificată de utilizarea pe scară largă a tehnologiilor digitale și se va intensifica și mai mult, pe măsură ce comunicăm tot mai adesea cu și prin intermediul modelelor lingvistice mari.
Pentru a răspunde acestei provocări, cercetătorii din cadrul proiectului își propun să înțeleagă ce așteaptă oamenii în conversațiile cu modele lingvistice mari, cum reacționează când aceste așteptări nu sunt îndeplinite și dacă așteptările și reacțiile lor diferă în funcție de limbi și culturi; în egală măsură, care sunt factorii relevanți ce influențează încrederea în boții conversaționali. Cercetarea este situată la intersecția dintre etică, psihologie, lingvistică, informatică, media și comunicare și utilizează metodologii mixte de investigație, precum filosofia morală experimentală.
Mai multe informații despre proiect pot fi accesate pe site-ul https://talkingtobots.net/