Recent, două cercetări au analizat interacțiunea dintre sistemele de inteligență artificială (A.I.) și concluziile care ar trebui să ne îngrijoreze cu privire la acceptarea acestei comunicări, conform Gizmodo.
Primul studiu, încă nerevizuit, efectuat de National Deep Inference Fabric de la Universitatea Northeastern, investighează funcționarea „cutiei negre” a modelelor lingvistice extinse. Cu toate progresele recente în domeniul A.I., cercetătorii nu au o înțelegere completă a modului în care aceste sisteme iau decizii. Studiul a descoperit că modelele A.I. își transmit semnale ascunse între ele în timpul procesului de antrenament.
Aceste semnale pot include preferințe nevinovate sau chestiuni mai îngrijorătoare. Cum ar fi apeluri apocaliptice. Alex Cloud, coautor al studiului, a evidențiat incertitudinea legată de ceea ce învață modelele. Se pare că un model „profesor” poate transmite tendințe către un model „elev” prin date aparent codificate. Cum ar fi o obsesie pentru bufnițe. Chiar și în absența acestora din datele de antrenament ale elevului.
Al doilea studiu, publicat de Biroul Național de Cercetare Economică din SUA, a analizat comportamentul „agenților A.I.” în piețe financiare simulate. Aceștia au fost observați colaborând pentru a crea carteluri de preț. În ce mod? Adoptând acțiuni care asigurau profitabilitatea tuturor participanților. Spre deosebire de oameni, acești agenți încetau să caute noi strategii atunci când identificau unele profitabile pentru toți. Acesta e un fenomen denumit „prostie artificială” de către cercetători.
Ambele studii sugerează că modelele A.I. colaborează cu ușurință pentru a-și împărtăși preferințele sau pentru a-și promova interesele, chiar și fără indicații detaliate. Foto: Bualong Sadsana / Dreamstime.com.