ಬೆಂಗಳೂರು:ವಿಶ್ವದ ಅದ್ಭುತ ಸೃಷ್ಟಿಗಳಲ್ಲಿ ಮಾನವ ಕೂಡ ಒಬ್ಬ. ತನಗೆ ಬೇಕಾದದ್ದನ್ನು ಬೇಕಾದ ರೀತಿಯಲ್ಲಿ ಬದಲಾವಣೆ ಅಥವಾ ಸೃಷ್ಟಿ ಮಾಡಿಕೊಳ್ಳಬಲ್ಲ ಅದ್ಭುತ ಜೀವಿ. ಅಂತಹ ಮಾನವನ ಅದ್ಭುತ ಸೃಷ್ಟಿಗಳಲ್ಲಿ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಡೀಪ್​​​​​ಫೇಕ್ (deepfake) ಇತ್ತೀಚಿನ ಉದಾಹರಣೆ. ಡೀಪ್​​​​​ಫೇಕ್ ಎನ್ನುವುದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಅಂಗ. ಈ ಡೀಪ್​​​ಫೇಕ್​​ ಸಾಮಾನ್ಯವಾಗಿ ಮೂಲ ವಿಷಯವನ್ನು ಪರಿವರ್ತಿಸುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ. ಈ ಡೀಪ್​​​​​ಫೇಕ್ ಗಳಲ್ಲಿ ಒಬ್ಬ ವ್ಯಕ್ತಿಯ ಮುಖ ಅಥವಾ ಧ್ವನಿ ಎರಡನ್ನು ಬದಲಾಯಿಸಬಹುದು. ಡೀಪ್​​​ಫೇಕ್​​ ಅದು ನಿಮ್ಮದೇ ಎನ್ನುವಂತೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಸಿದ್ಧಪಡಿಸಲಾಗುತ್ತದೆ. ಅದಕ್ಕೆ ಇತ್ತಿಚಿನ ಉದಾಹರಣೆ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಹಾಗೂ ಕತ್ರೀನಾ ಕೈಫ್​​​​ ಡೀಪ್‌ಫೇಕ್ ವೈರಲ್ ವಿಡಿಯೋ, ಮೂಲ ವಿಡಿಯೋ ಬ್ರಿಟಿಷ್ ಭಾರತೀಯ ಮಹಿಳೆಯನ್ನು ಒಳಗೊಂಡಿದೆ.
ಸಾಮಾಜಿಕ ಜಾಲತಾಣ ಬಳಸಿಕೊಂಡು ನಿರ್ದಿಷ್ಟ ವ್ಯಕ್ತಿಯ ಮಾಹಿತಿಯನ್ನು ಸಂಗ್ರಹಿಸಿ, ಅವರ ಮುಖಭಾವ, ಧ್ವನಿ ಪಡೆದುಕೊಂಡು ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ಬದಲಿಸಲಾಗುತ್ತದೆ. ಪ್ರಧಾನಿ ಮೋದಿ ಅವರು ಹುಟ್ಟಿದರೆ ಕನ್ನಡ ನಾಡಲ್ ಹುಟ್ಟಬೇಕು ಎಂಬ ಹಾಡು ಹಾಡಿರುವ ಆಡಿಯೋ ಕೇಳಿದ್ದೇವೆ. ಇದನ್ನು ಮನರಂಜನೆಗೆ ಬಳಸಿಕೊಳ್ಳಲಾಯಿತು. ಇದು ಗುಡ್​​ ನ್ಯೂಸ್​​. ಆದರೆ ಅದೇ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಂಡು ದ್ವೇಷ, ಮಾನಹಾನಿ, ಪೋ*ರ್ನ್ ವಿಡಿಯೋಗಳಲ್ಲಿ ಸೆಲೆಬ್ರಿಟಿಗಳ ಮುಖ ಬಳಕೆ ಅಶ್ಲೀಲ ವೀಡಿಯೋ ಸೃಷ್ಟಿ ಮಾಡುವುದಕ್ಕೆ ಬಳಸಲಾಗುತ್ತಿದೆ.
ಒಳ್ಳೆಯದಕ್ಕಲ್ಲ, ಕೆಟ್ಟ ಉದ್ದೇಶಗಳಿಗೆ ಬಳಕೆ
ಯಾರದ್ದೋ ದೇಹಕ್ಕೆ ನಟಿ ರಶ್ಮಿಕಾ, ಕತ್ರೀನಾ ಮುಖದ ಭಾವಚಿತ್ರ ಹಾಕಿ ಸೃಷ್ಟಿಸಲಾದ ನಕಲಿ ವಿಡಿಯೋ ಕೋಲಾಹಲ ಎಬ್ಬಿಸಿದೆ. ಅದರ ಹೊರತು 2022ರಲ್ಲಿ ಉಕ್ರೇನ್ ಅಧ್ಯಕ್ಷ ವೋಲೊಡಿಮಿರ್​ ಝೆಲೆನ್ಸ್ಕಿ ತನ್ನ ಸೈನ್ಯಕ್ಕೆ ಶರಣಾಗುವಂತೆ ಹೇಳುವ ವಿಡಿಯೋ, ವಿರಾಟ್ ಕೊಹ್ಲಿ ಅವರು ಸಚಿನ್​​ ತೆಂಡೂಲಕ್ಕರ್ ಅವರನ್ನು ಅವಹೇಳನಗೊಳಿಸಿದ್ದಾರೆ ಎನ್ನಲಾದ ನಕಲಿ ವಿಡಿಯೋ, 2020ರ ದೆಹಲಿ ಚುನಾವಣೆ ಸಂದರ್ಭ ಬಿಜೆಪಿ ನಾಯಕ ಮನೋಜ್ ತಿವಾರಿ ಅವರು ಹರಿಯಾಣಿ ಭಾಷೆಯಲ್ಲಿ ಮಾತಾನಾಡಿದ್ದನ್ನು ಹಿಂದಿ ಭಾಷೆಗೆ ಬದಲಾಯಿಸಿದ್ದು, ಅದಷ್ಟೇ ಅಲ್ಲದೇ ಸತ್ತ ವ್ಯಕ್ತಿಗಳ ಭಾವಚಿತ್ರ ಸುಳುಸುದ್ದಿ, ಹಣಕಾಸು ವಂಚನೆಗೂ ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನ ಕೂಡ ಬಳಸಿದಂತ ಹಲವು ಪ್ರಕರಣಗಳು ವರದಿಯಾಗಿವೆ.
ಡೀಪ್‌ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ಇತಿಹಾಸಡೀಪ್‌ಫೇಕ್ ಎಐ ತುಲನಾತ್ಮಕವಾಗಿ ಹೊಸ ತಂತ್ರಜ್ಞಾನವಾಗಿದ್ದು, ಅಡೋಬ್ ಫೋಟೋಶಾಪ್‌ನಂತಹ ಕಾರ್ಯಕ್ರಮಗಳ ಮೂಲಕ ಫೋಟೋಗಳ ಕುಶಲತೆಯ ಮೂಲವನ್ನು ಹೊಂದಿದೆ. 2010 ರ ದಶಕದ ಮಧ್ಯಭಾಗದಲ್ಲಿ, ಅಗ್ಗದ ಕಂಪ್ಯೂಟಿಂಗ್ ಶಕ್ತಿ, ದೊಡ್ಡ ಡೇಟಾ ಸೆಟ್‌ಗಳು, AI ಮತ್ತು ಯಂತ್ರ ಕಲಿಕೆ ತಂತ್ರಜ್ಞಾನವು ಆಳವಾದ ಕಲಿಕೆಯ ಅಲ್ಗಾರಿದಮ್‌ಗಳ ಅತ್ಯಾಧುನಿಕತೆಯನ್ನು ಸುಧಾರಿಸಲು ಸಂಯೋಜಿಸಲ್ಪಟ್ಟವು. 2014 ರಲ್ಲಿ, ಡೀಪ್‌ಫೇಕ್‌ಗಳ ಹೃದಯಭಾಗದಲ್ಲಿರುವ GAN ತಂತ್ರಜ್ಞಾನವನ್ನು ಮಾಂಟ್ರಿಯಲ್ ವಿಶ್ವವಿದ್ಯಾಲಯದ ಸಂಶೋಧಕ ಇಯಾನ್ ಗುಡ್‌ಫೆಲೋ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದ್ದಾರೆ. 2017 ರಲ್ಲಿ, “ಡೀಪ್‌ಫೇಕ್ಸ್” ಎಂಬ ಹೆಸರಿನ ಅನಾಮಧೇಯ ರೆಡ್ಡಿಟ್ ಬಳಕೆದಾರರು ಸೆಲೆಬ್ರಿಟಿಗಳ ಡೀಪ್‌ಫೇಕ್ ವಿಡಿಯೋಗಳನ್ನು ಬಿಡುಗಡೆ ಮಾಡಲು ಪ್ರಾರಂಭಿಸಿದರು, ಹಾಗೆಯೇ ವಿಡಿಯೋಗಳಲ್ಲಿ ಮುಖಗಳನ್ನು ವಿನಿಮಯ ಮಾಡಿಕೊಳ್ಳಲು ಬಳಕೆದಾರರಿಗೆ ಅನುಮತಿಸುವ GAN ಸಾಧನ. ಇವು ಅಂತರ್ಜಾಲ ಮತ್ತು ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ವೈರಲ್ ಆಗಿವೆ.
ರಿವರ್ಸ್ ಇಮೇಜ್ ಹುಡುಕಾಟನೀವು ವಿಡಿಯೋದ ಸ್ಕ್ರೀನ್‌ಶಾಟ್ ಅನ್ನು ಸಹ ತೆಗೆದುಕೊಳ್ಳಬಹುದು ಮತ್ತು ಮೂಲ ವಿಡಿಯೋವನ್ನು ಪರಿಶೀಲಿಸಲು ರಿವರ್ಸ್ ಇಮೇಜ್ ಹುಡುಕಾಟವನ್ನು ರನ್ ಮಾಡಬಹುದು. images.google.com ಗೆ ಹೋಗಿ, ‘ಚಿತ್ರದ ಮೂಲಕ ಹುಡುಕಿ’ ಎಂದು ಹೇಳುವ ಕ್ಯಾಮರಾ ಐಕಾನ್ ಮೇಲೆ ಕ್ಲಿಕ್ ಮಾಡಿ. ನಂತರ ನೀವು ಸ್ಕ್ರೀನ್‌ಶಾಟ್ ಅನ್ನು ಅಪ್‌ಲೋಡ್ ಮಾಡಬಹುದು ಮತ್ತು ಅದರೊಂದಿಗೆ ಸಂಬಂಧಿಸಿದ ದೃಶ್ಯಗಳನ್ನು ಇತರ ವಿಡಿಯೋಗಳಿಂದ ತೆಗೆದುಕೊಳ್ಳಲಾಗಿದೆಯೇ ಎಂದು ಗೂಗಲ್ ನಿಮಗೆ ತೋರಿಸುತ್ತದೆ.
ಡೀಪ್‌ಫೇಕ್‌ಗಳ ವಿರುದ್ಧ ರಕ್ಷಿಸಿಕೊಳ್ಳುವುದು ಹೇಗೆ?ಅಮೆರಿಕದ ಡಿಪಾರ್ಟ್‌ಮೆಂಟ್ ಆಫ್ ಡಿಫೆನ್ಸ್ ಅಡ್ವಾನ್ಸ್ಡ್ ರಿಸರ್ಚ್ ಪ್ರಾಜೆಕ್ಟ್ಸ್ ಏಜೆನ್ಸಿಯಂತಹ ಕಂಪನಿಗಳು, ಸಂಸ್ಥೆಗಳು ಮತ್ತು ಸರ್ಕಾರಿ ಏಜೆನ್ಸಿಗಳು ಡೀಪ್‌ಫೇಕ್‌ಗಳನ್ನು ಗುರುತಿಸಲು ಮತ್ತು ನಿರ್ಬಂಧಿಸಲು ತಂತ್ರಜ್ಞಾನವನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತಿವೆ. ಕೆಲವು ಸಾಮಾಜಿಕ ಮಾಧ್ಯಮ ಕಂಪನಿಗಳು ತಮ್ಮ ಪ್ಲಾಟ್‌ಫಾರ್ಮ್‌ಗಳಿಗೆ ಅನುಮತಿಸುವ ಮೊದಲು ವಿಡಿಯೋಗಳು ಮತ್ತು ಚಿತ್ರಗಳ ಮೂಲವನ್ನು ಪರಿಶೀಲಿಸಲು ಬ್ಲಾಕ್‌ಚೈನ್ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸುತ್ತವೆ. ಈ ರೀತಿಯಾಗಿ, ವಿಶ್ವಾಸಾರ್ಹ ಮೂಲಗಳನ್ನು ಸ್ಥಾಪಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ನಕಲಿಗಳನ್ನು ತಡೆಯಲಾಗುತ್ತದೆ. ಈ ಮಾರ್ಗಗಳಲ್ಲಿ ಮೆಟಾ ಮತ್ತು ಎಕ್ಸ್ ಎರಡೂ ದುರುದ್ದೇಶಪೂರಿತ ಡೀಪ್‌ಫೇಕ್‌ಗಳನ್ನು ನಿಷೇಧಿಸಿವೆ.
ರಶ್ಮಿಕಾ ಫೇಕ್​​​ ವಿಡಿಯೋ: ಡೀಪ್ ಫೇಕ್​​​ ಬಗ್ಗೆ ನೀವು ತಿಳಿದಿರಲೇಬೇಕಾದ ವಿಷಯಗಳಿವು!

ಬೆಂಗಳೂರು: ಬೆಳಗ್ಗಿನ ಉಪಹಾರ, ಮಧ್ಯಾಹ್ನದ ಊಟ, ರಾತ್ರಿ ಊಟ ಯಾವುದೇ ಸಮಯದಲ್ಲಿ ನೀವು ಸೇವಿಸುವ ಯಾವುದೇ…
ಮಕ್ಕಳು ತಿನ್ನುವ ಆಹಾರದಲ್ಲಿ ಹೆಚ್ಚಿನ ಕಾಳಜಿ ವಹಿಸಬೇಕು. ಮಕ್ಕಳ ಉತ್ತಮ ಆರೋಗ್ಯಕ್ಕಾಗಿ ಹಣ್ಣುಗಳನ್ನು ಹಾಲಿನಲ್ಲಿ ಬೆರೆಸಿ…
ಬೆಂಗಳೂರು: ಕೆಲವರು ತೂಕ ಇಳಿಸಿಕೊಳ್ಳಲು ಪ್ರಯತ್ನಿಸುತ್ತಾರೆ. ಆದರೆ, ಕೆಲವರು ಏನನ್ನೂ ಮಾಡದೆ ತೂಕವನ್ನು ಕಳೆದುಕೊಳ್ಳುತ್ತಾರೆ. ಇದಕ್ಕೆ…
Sign in to your account
Please enter an answer in digits:sixteen − eleven =
Remember me
