Advertisment

ଲୋକଙ୍କୁ ମିଛ ଦୁନିଆକୁ ନେଇ ଯାଉଛି AI ଟେକ୍ନୋଲୋଜି; ଫଟୋ, କଣ୍ଠସ୍ୱର ପରେ ଭିଡିଓ ନକଲ

ଭଏସ୍ କ୍ଲୋନିଂ ଟେକ୍ନୋଲୋଜି ମାଧ୍ୟମରେ ଜଣେ ବ୍ୟକ୍ତିଙ୍କ ଅବିକଳ କଣ୍ଠସ୍ୱରର ନକଲ ବାଇଡେନ ପ୍ରଶାସନକୁ ଚିନ୍ତାରେ ପକାଇଛି।

author-image
Debibandita Barick
ଅଦ୍ୟତନ ହୋଇଛି
Representative Image

Representative Image

କୃତ୍ରିମ ବୁଦ୍ଧିମତା ବା ଆର୍ଟିଫିସିଆଲ ଇଣ୍ଟେଲିଜେନ୍ସର ଦ୍ରୁତ ବୃଦ୍ଧି ଟେକ୍ନୋଲୋଜିକୁ ଏକ ନୂଆ ଯୁଗରେ ନେଇ ପହଞ୍ଚାଇଛି। କିନ୍ତୁ ଏହା ଯେ ଏକ ଭୟଙ୍କର ପରିଣତି ସୃଷ୍ଟି କରିବ, ତାହା ଏବେଠୁ ଅନୁମେୟ। କାରଣ ଭଏସ୍ କ୍ଲୋନିଂ ଟେକ୍ନୋଲୋଜି ମାଧ୍ୟମରେ ଜଣେ ବ୍ୟକ୍ତିଙ୍କ ଅବିକଳ କଣ୍ଠସ୍ୱରର ନକଲ ଏବେ ବାଇଡେନ ପ୍ରଶାସନକୁ ଚିନ୍ତାରେ ପକାଇଛି। 

Advertisment

ଏହି ଟେକ୍ନୋଲୋଜି ଲୋକଙ୍କୁ ଚକମା ଦେଇସାରି ଥିବାବେଳେ ନିକଟରେ ଆମେରିକାର ନ୍ୟୁୟର୍କ ସିଟି ମେୟର ଏରିକ୍ ଆଡାମସଙ୍କ ପରି ଜନପ୍ରତିନିଧି ନିଜ ସ୍ୱରର AI ନିର୍ମିତ କ୍ଲୋନର ଅଭିନବ ବ୍ୟବହାର କରିଛନ୍ତି, ଯାହାକୁ ଜାଣିବା ପରେ ବାଇଡେନ ପ୍ରଶାସନର ଏଆଇ ଷ୍ଟ୍ରାଟେଜୀ ନେତୃତ୍ୱ ନେଉଥିବା ହ୍ୱାଇଟ ହାଉସର ଡେପୁଟି ଚିଫ୍ ବ୍ରୁସ୍ ରିଡ୍ ଆଶ୍ଚର୍ଯ୍ୟ ହୋଇଯିବା ସହ ଚିନ୍ତା ପ୍ରକଟ କରିଛନ୍ତି।

ସେ ଏହାକୁ ଭୟଙ୍କର ଭାବରେ ଭଲ ବୋଲି କହିଛନ୍ତି। ଅର୍ଥାତ୍ ବ୍ରୁସ ଏହି ଟେକ୍ନୋଲୋଜିର ବ୍ୟବହାର କେତେକାଂଶରେ ଭଲ ହୋଇଥିଲେ ବି ଏହାର ପରିଣାମ ଭୟଙ୍କର ବୋଲି ବର୍ଣ୍ଣନା କରିଛନ୍ତି। ବିଜନେସ୍ ଇନସାଇଡରରେ ପ୍ରକାଶିତ ଏକ ରିପୋର୍ଟ ଅନୁଯାୟୀ, ସାମାଜ ଉପରେ ଏହାର ସମ୍ଭାବ୍ୟ ପ୍ରଭାବ ଉପରେ ବ୍ରୁସ୍ ଗୁରୁତ୍ୱାରୋପ କରିଛନ୍ତି। 

Advertisment

ବ୍ରୁସ୍ କହିଛନ୍ତି, ଯଦି ଏପରି ହୁଏ, ତେବେ ଲୋକମାନେ ନିଜେ ଅନୁପସ୍ଥିତ ରହି ଟେକ୍ନୋଲୋଜି ଜରିଆରେ ନିଜର କଣ୍ଠସ୍ୱରର ବ୍ୟବହାରର କରିପାରିବେ, ଯାହା ଫୋନ୍ କଲ୍ ଜରିଆରେ ଅଧିକ ସମ୍ଭବ। ଏପରି ହେଲେ କେଉଁଟା ସତ ଜଣାପଡିବ ନାହିଁ, ଲୋକେ ଅଧିକ ଠକାମିର ଶିକାର ହେବେ। ଲୋକଙ୍କ ବ୍ୟକ୍ତିଗତ ସୁରକ୍ଷା ଏବଂ ସଠିକତାକୁ ନେଇ ଚିନ୍ତା ବ୍ୟକ୍ତ କରିଛନ୍ତି ବ୍ରୁସ୍।

ସିକ୍ୟୁରିଟି ସଫ୍ଟୱେର୍ କମ୍ପାନୀ McAfee ରିପୋର୍ଟ ଅନୁଯାୟୀ, ଭଏସ୍ କ୍ଲୋନିଂ ଟେକ୍ନୋଲୋଜି ମାତ୍ର ତିନି କିମ୍ବା ଚାରି ସେକେଣ୍ଡର ଅଡିଓ ଇନପୁଟ୍ ସହ ଯେକୌଣସି ବ୍ୟକ୍ତିଙ୍କ ସ୍ୱର କ୍ରିଏଟ୍ କରିପାରିବ। ପ୍ରକୃତ କଣ୍ଠ ସ୍ୱର ସହ ମଧ୍ୟ ୮୫ ପ୍ରତିଶତ ଏକଦମ୍ ମ୍ୟାଚ୍ କରିଦେବ। ସ୍କାମରମାନେ ଏହି ଟେକ୍ନୋଲୋଜିର ଦ୍ରୁତ ବ୍ୟବହାର କରୁଛନ୍ତି। 

ଫେଡେରାଲ ଟ୍ରେଡ୍ କମିଶନ (ଏଫଟିସି) ଏପରି ଘଟଣା ରିପୋର୍ଟ କରିଛି, ଯାହାକୁ ଶୁଣିଲେ ଆଶ୍ଚର୍ଯ୍ୟ ହୋଇଯିବେ। ସ୍କାମରମାନେ ଏବେ ଏହି ଟେକ୍ନୋଲୋଜିର ବ୍ୟବହାର କରି ଲୋକମାନଙ୍କୁ ସେମାନଙ୍କ ପରିବାର ସଦସ୍ୟ ଭାବେ ଠକୁଛନ୍ତି। ଫୋନ୍ କଲରେ ସମସ୍ୟାରେ ପଡ଼ିଥିବା ମିଛ ନାଟକ କରି ଅନଲାଇନ୍ ଲୁଟ୍ କରୁଛନ୍ତି। ଏହା ଚିନ୍ତାଜନକ ସ୍ଥିତିରେ ପହଞ୍ଚିଥିବାବେଳେ ଏବେ ଭିଡିଓରେ ମଧ୍ୟ ଲୋକଙ୍କ ଚେହେରାର ନକଲ କରାଯାଉଛି।

ନିକଟରେ ଭାରତୀୟ ଅଭିନେତ୍ରୀ ରଶ୍ମିକା ମନ୍ଦନାଙ୍କ ଫଟୋକୁ ନେଇ ଏକ ଭିଡିଓରେ ଏଡିଟ୍ କରାଯାଇଛି। ଯାହାକୁ ନେଇ ଅମିତାଭ ବଚ୍ଚନଙ୍କ ସମେତ ଅନେକ ବୁଦ୍ଧିଜୀବୀ ଚିନ୍ତା ପ୍ରକଟ କରିଛନ୍ତି। ଏପରି ଟେକ୍ନୋଲୋଜିର ବ୍ୟବହାର ଲୋକଙ୍କୁ ଏକ ପ୍ରକାର ମିଛ ଦୁନିଆକୁ ନେଇଯାଉଛି, ତେଣୁ ଏହା ଉପରେ ରୋକ୍ ଲଗାଇବାର ଆବଶ୍ୟକତା ନିଶ୍ଚିତ ରୂପେ ରହିଛି। 

Artificial Intelligence Scammer Voice Cloning AI Voice Editing Fake Voice