對人類的威脅

目前分成兩個學派:

悲觀學派

代表人物:天文物理學家史蒂芬·霍金、特斯拉執行長伊隆·馬斯克

主張:

1.AI會遵循科技發展的加速度理論

2.AI可能會有自我改造創新的能力

3.AI進步的速度遠遠超過人類

結論:人類會有被滅絕的危機

樂觀學派

代表人物:Google、Facebook的主要技術發展者

主張:

1.人類只要關掉電源就能除掉AI機器人

2.任何的科技都會有瓶頸,AI科技不會無限成長

3.目前來說,電腦無法突變、甦醒、產生自我意志

AI也不可能具有創意與智慧、同情心與審美等這方面的能力

結論:人類是可控制AI的