Natutunan ng artipisyal na katalinuhan na likhain muli ang hitsura ng isang tao sa pamamagitan ng kanyang boses

Ang isang hindi pangkaraniwang pag-unlad ay ipinakita sa Massachusetts Institute of Technology na nagpapalawak ng mga kakayahan ng mga intelihente na sistema. Ngayon, kailangan lamang makinig ng Ai sa isang maikling pag-record ng boses ng isang tao upang matukoy nang may mataas na pagiging maaasahan kung ano ang hitsura niya.

Ang pag-unlad ay pinangalanang Speech2Face at puro pang-agham sa likas na katangian, ang pamamahagi nito ay limitado sa mga akademikong lupon. Pormal, pinag-uusapan natin ang isa pang uri ng mga generative-adversarial neural network, na, sa pamamagitan ng pagsubok at error, pinipili ang mga parameter ng hitsura ng isang tao batay sa data ng boses. Bukod dito, ang kawastuhan ng gawaing ito ay makabuluhang lumampas sa mga resulta ng mga random na hula.

Ano ang mga algorithm na ginamit ng mga Amerikanong mananaliksik ay hindi pa rin alam para sa tiyak. Mayroon lamang ang resulta ng gawain ng AI, nakakagulat na tumpak na muling paggawa ng mga pangunahing tampok ng hitsura ng mga kalahok sa eksperimento. Ang sistema, na hinuhusgahan ng mga imahe, batay sa boses ay tumutukoy hindi lamang kasarian at edad ng isang tao, kundi pati na rin ang kulay ng kanyang balat!

Ang pinaka nakakaintriga ay ang pangunahing tanong: bakit lumikha ng ganoong AI? Mula sa paglalarawan mula sa mga tagabuo sinusundan nito na nakatuon sila ngayon sa pagpapabuti ng mga algorithm at takot na takot na ang isang tao ay nais na gamitin ang "hilaw" na teknolohiya para sa personal na pakinabang. Ngunit kailangan nila ng malalaking mga dataset at pagsubok upang madagdagan ang representativeness, kaya't kailangan nilang kumuha ng mga peligro at gumamit ng tulong ng pandaigdigang pam-agham na komunidad. Posibleng posible na ang layunin ng Speech2Face ay upang lumikha ng isang bagong tool para sa paglalantad o, sa kabaligtaran, pagbuo ng mga deepfake.