Microsofts president Brad Smith sa at bruken av autonome kampvåpen-systemer stilte en rekke etiske spørsmål som myndighetene trenger å ta opp så raskt som mulig.
Han sa at raskt avanserte teknologier, der flygende, flytende eller gående droner kan utstyres med dødelige våpen - raketter, bomber eller håndvåpen og er programmert til å operere helt eller delvis autonomt, "vil ende opp … i mange land."
USA, Kina, Israel, Sør-Korea, Russland og Storbritannia utvikler alle våpensystemer med en betydelig grad av autonomi, med den kritiske funksjonen å velge hvilket mål å angripe.
Det er fortsatt uklart hvem som er ansvarlig for dødsfallet eller skaden forårsaket av maskinen - programmereren, produsenten, sjefen eller selve maskinen.
Smith sier at roboter "ikke bør få lov til å bestemme selv om de skal delta i kamp og hvem de skal ødelegge," og argumenterer for at det bør utvikles en internasjonal konvensjon for å regulere bruken av autonom kampteknologi.
Utviklingen av teknologier for autonome kampsystemer blir i økende grad motarbeidet av økende sosial motvilje. Tusenvis av Google-ansatte har signert et løfte om ikke å utvikle kunstig intelligens til bruk i våpensystemer.
Det siste året har den globale kampanjen Stop Killer Robots doblet seg og inkluderer nå 113 frivillige organisasjoner i 57 land.