Close Menu
Citizens VoiceCitizens Voice
    Facebook X (Twitter) Instagram YouTube LinkedIn WhatsApp Telegram
    Citizens VoiceCitizens Voice বুধ, এপ্রিল 8, 2026
    • প্রথমপাতা
    • অর্থনীতি
    • বাণিজ্য
    • ব্যাংক
    • পুঁজিবাজার
    • বিমা
    • কর্পোরেট
    • বাংলাদেশ
    • আন্তর্জাতিক
    • আইন
    • অপরাধ
    • মতামত
    • অন্যান্য
      • খেলা
      • শিক্ষা
      • স্বাস্থ্য
      • প্রযুক্তি
      • ধর্ম
      • বিনোদন
      • সাহিত্য
      • ভিডিও
    Citizens VoiceCitizens Voice
    Home » শিল্প খাতেও ছড়াচ্ছে ‘ডিপফেক’ আতঙ্ক
    অপরাধ

    শিল্প খাতেও ছড়াচ্ছে ‘ডিপফেক’ আতঙ্ক

    মনিরুজ্জামানফেব্রুয়ারি 8, 2026
    Facebook Twitter Email Telegram WhatsApp Copy Link
    Share
    Facebook Twitter LinkedIn Telegram WhatsApp Email Copy Link

    কৃত্রিম বুদ্ধিমত্তা (এআই) ব্যবহার করে তৈরি করা ‘ডিপফেক’ ভিডিও এখন বিশ্বব্যাপী ভয়ংকর রূপ নিয়েছে। সাম্প্রতিক এক গবেষণায় দেখা গেছে, অপরাধীরা ব্যক্তি বা প্রতিষ্ঠানের পরিচয় নকল করে খুব সহজে এবং কম খরচে বড় পরিসরে জালিয়াতি চালাচ্ছে। ‘এআই ইনসিডেন্ট ডেটাবেজ’-এর বিশেষজ্ঞরা বিষয়টিকে শিল্পপর্যায়েও জালিয়াতি হিসেবে বর্ণনা করেছেন।

    প্রতিবেদনে বলা হয়েছে, সুইডিশ সাংবাদিক থেকে শুরু করে সাইপ্রাসের প্রেসিডেন্ট পর্যন্তের ভিডিও নকল করে সাধারণ মানুষকে বিভ্রান্ত করা হচ্ছে। পশ্চিম অস্ট্রেলিয়ার প্রিমিয়ার রবার্ট কুকের নকল ভিডিও ব্যবহার করে ভুয়া বিনিয়োগ প্রকল্পের প্রচারণা চালাচ্ছে অপরাধীরা। এআই প্রযুক্তি এখন এত সহজলভ্য যে, সামান্য কারিগরি জ্ঞান থাকলেই কেউ উচ্চমানের ভুয়া কনটেন্ট তৈরি করতে পারছে।

    গত বছরের এক ঘটনা উদাহরণ হিসেবে বলা যায়। সিঙ্গাপুরের একটি বহুজাতিক কোম্পানির অর্থ কর্মকর্তা ভিডিও কলে উচ্চপদস্থ কর্মকর্তাদের ভুয়া উপস্থিতি দেখে প্রায় ৫ লাখ ডলার প্রতারকদের হাতে তুলে দেন। শুধু যুক্তরাজ্যে ২০২৫ সালের জানুয়ারি থেকে নভেম্বর পর্যন্ত, মাত্র নয় মাসে গ্রাহকরা এ ধরনের জালিয়াতিতে প্রায় ৯৪০ কোটি পাউন্ড হারিয়েছেন। হার্ভার্ড বিশ্ববিদ্যালয়ের গবেষক ফ্রেড হাইডিং জানিয়েছেন, এই প্রযুক্তি বিশেষজ্ঞদের ধারণার চেয়ে দ্রুতগতিতে আরও উন্নত হচ্ছে।

    সম্প্রতি ইভোক নামক স্টার্টআপের প্রধান নির্বাহী জেসন রেবহোলজ এমন এক জালিয়াতির শিকার হতে যাচ্ছিলেন। লিঙ্কডইনে প্রকৌশলী পদের সাক্ষাৎকার নেওয়ার সময় তিনি লক্ষ্য করেন, প্রার্থীর ভিডিওর ব্যাকগ্রাউন্ড ও মুখের চারপাশ অস্বাভাবিকভাবে ঝাপসা। পরে পরীক্ষা করে ধরা পড়ে, এটি ছিল একটি এআই-জেনারেটেড ভিডিও। রেবহোলজ বলেন, “যদি আমাদের মতো স্টার্টআপও লক্ষ্যবস্তু হতে পারে, তাহলে সকলেই ঝুঁকির মধ্যে আছে।”

    বিশেষজ্ঞরা সতর্ক করেছেন, সামনের দিনগুলোতে পরিস্থিতি আরও জটিল হতে পারে। বর্তমানে কণ্ঠস্বর নকল করা প্রায় নিখুঁত হলেও ভিডিওর ক্ষেত্রে কিছু সূক্ষ্ম ত্রুটি থাকে। কিন্তু প্রযুক্তির দ্রুত উন্নতির কারণে সেগুলোও শিগগিরই কাটিয়ে উঠবে। এর ফলে নির্বাচন, নিয়োগ প্রক্রিয়া এবং ডিজিটাল প্রতিষ্ঠানগুলোর ওপর মানুষের বিশ্বাসযোগ্যতা ক্ষতিগ্রস্ত হওয়ার আশঙ্কা দেখা দিয়েছে। বিশ্বজুড়ে অনলাইন জালিয়াতি থেকে রক্ষা পেতে সাধারণ সচেতনতার পাশাপাশি উন্নত নিরাপত্তা প্রযুক্তির ব্যবহার এখন অপরিহার্য।

    Share. Facebook Twitter LinkedIn Email Telegram WhatsApp Copy Link

    সম্পর্কিত সংবাদ

    বাংলাদেশ

    বরিশালে পুড়িয়ে মারার হুমকিতে স্কুল ছাড়ল দশম শ্রেণির ছাত্রী

    এপ্রিল 7, 2026
    অপরাধ

    পুলিশ সংস্কার প্রক্রিয়া নিয়ে বিতর্ক: কমিশনের ক্ষমতা কমানোর আশঙ্কা

    এপ্রিল 7, 2026
    অপরাধ

    সিন্ডিকেটের দৌরাত্ম্যে সরকারের অভ্যন্তরীণ দুশ্চিন্তা

    এপ্রিল 7, 2026
    একটি মন্তব্য করুন Cancel Reply

    সর্বাধিক পঠিত

    ক্রেতারা ভারত-চীন ছাড়ছে, বাংলাদেশ পাচ্ছে অর্ডার

    অর্থনীতি আগস্ট 15, 2025

    সব ব্যবসায়ী ইচ্ছাকৃত ঋণখেলাপী নয়

    মতামত জানুয়ারি 13, 2025

    বরিশালের উন্নয়ন বঞ্চনা: শিল্প, যোগাযোগ, স্বাস্থ্য ও পর্যটন খাতে নেই অগ্রগতি

    মতামত এপ্রিল 22, 2025

    টেকসই বিনিয়োগে শীর্ষে থাকতে চায় পূবালী ব্যাংক

    অর্থনীতি আগস্ট 15, 2025
    সংযুক্ত থাকুন
    • Facebook
    • Twitter
    • Instagram
    • YouTube
    • Telegram

    EMAIL US

    contact@citizensvoicebd.com

    FOLLOW US

    Facebook YouTube X (Twitter) LinkedIn
    • About Us
    • Contact Us
    • Terms & Conditions
    • Comment Policy
    • Advertisement
    • About Us
    • Contact Us
    • Terms & Conditions
    • Comment Policy
    • Advertisement

    WhatsAppp

    01339-517418

    Copyright © 2025 Citizens Voice All rights reserved

    Type above and press Enter to search. Press Esc to cancel.