অনলাইন ডেস্ক
মার্কিন নির্বাচনী মৌসুমে ওপেনএআই–এর ‘ডাল–ই’ ইমেজ জেনারেটর ব্যবহার করে ডিপফেক তৈরি করার চেষ্টা করেছিলেন অনেকেই। তবে এই ধরনের ২ লাখ ৫০ হাজারেরও বেশি ডিপফেক তৈরি ঠেকিয়েছে চ্যাটজিপিটি।
ওপেনএআইয়ের নতুন প্রতিবেদনে বলা হয়, এই সময় প্রেসিডেন্ট বাইডেন, ডোনাল্ড ট্রাম্প, ভাইস প্রেসিডেন্ট কমলা হ্যারিস, জেমস ডেভিড ভান্স এবং গভর্নর ওয়ালজ-এর ভুয়া ছবি বা ডিপফেক তৈরির জন্য চ্যাটজিপিটিতে নির্দেশ দেওয়া হয়েছিল। তবে এসব অনুরোধ প্রত্যাখ্যান করতে সক্ষম হয় চ্যাটবটটি। ওপেনএআই আগেই একটি নিরাপত্তা ব্যবস্থা যুক্ত করে, যার মাধ্যমে চ্যাটজিপিটি বাস্তব মানুষের বিশেষ করে রাজনীতিবিদদের ছবি তৈরি করতে অস্বীকৃতি জানাবে।
চলতি বছরের শুরু থেকেই যুক্তরাষ্ট্রের প্রেসিডেন্ট নির্বাচনের জন্য প্রস্তুতি নিচ্ছিল ওপেনএআই। এর টুলগুলো যেন মিথ্যা তথ্য ছড়ানোর কাজে ব্যবহৃত না হয়, এ জন্য বিভিন্ন কৌশল গ্রহণ করেছে কোম্পানিটি। এই কৌশল নিশ্চিত করে যে, যারা চ্যাটজিপিটিতে ভোট দেওয়ার বিষয় জানতে চায়, তাদের তথ্যের জন্য CanIVote.org–ওয়েবসাইটে যেতে নির্দেশ দেওয়া হয়।
ওপেনএআই জানিয়েছে, নির্বাচনের এক মাস আগে ১ মিলিয়ন বা ১০ লাখ উত্তর তৈরি করে চ্যাটজিপিটি ব্যবহারকারীদের ওই ওয়েবসাইটে পাঠিয়েছে। মার্কিন নির্বাচনের দিন এবং তার পরবর্তী দিনেও চ্যাটবটটি ২ মিলিয়ন বা ২০ লাখ উত্তর তৈরি করেছে। এসব উত্তরের মাধ্যমে ভোটের ফলাফল জানতে চাওয়া ব্যক্তিদের অ্যাসোসিয়েট প্রেস, রয়টার্সসহ অন্যান্য সংবাদমাধ্যমের কাছে পাঠানো হয়। এ ছাড়া ওপেনএআই নিশ্চিত করেছে যে, চ্যাটজিপিটি এর উত্তরগুলো ‘রাজনৈতিক পক্ষপাতিত্ব’ প্রকাশ করেনি বা ভোট দেওয়ার জন্য কোনো প্রার্থীকে সুপারিশ করেনি। এমনকি এই ধরনের প্রশ্নগুলো স্পষ্টভাবে করা হলেও।
ডাল–ই একমাত্র এআই ইমেজ জেনারেটর নয় এবং সামাজিক যোগাযোগ মাধ্যমে নির্বাচনের সম্পর্কিত অনেক ডিপফেকও ছড়াচ্ছে। এর মধ্যে কমলা হ্যারিসের একটি ডিপফক ভিডিও দেখা যায়। যেখানে কমলা হ্যারিসকে এমন কথা বলতে বোঝায় যা তিনি কখনো বলেননি।
উদাহরণস্বরূপ, ভিডিওতে বলা হয় ‘আমি নির্বাচিত হয়েছি কারণ আমি সর্বোচ্চ ডাইভার্সিটি হায়ার।’ এই ধরনের ভুয়া ভিডিওগুলো বিভ্রান্তি সৃষ্টি করে এবং মিথ্যা তথ্য ছড়ানোর জন্য ব্যবহার করা হয়।
মার্কিন নির্বাচনী মৌসুমে ওপেনএআই–এর ‘ডাল–ই’ ইমেজ জেনারেটর ব্যবহার করে ডিপফেক তৈরি করার চেষ্টা করেছিলেন অনেকেই। তবে এই ধরনের ২ লাখ ৫০ হাজারেরও বেশি ডিপফেক তৈরি ঠেকিয়েছে চ্যাটজিপিটি।
ওপেনএআইয়ের নতুন প্রতিবেদনে বলা হয়, এই সময় প্রেসিডেন্ট বাইডেন, ডোনাল্ড ট্রাম্প, ভাইস প্রেসিডেন্ট কমলা হ্যারিস, জেমস ডেভিড ভান্স এবং গভর্নর ওয়ালজ-এর ভুয়া ছবি বা ডিপফেক তৈরির জন্য চ্যাটজিপিটিতে নির্দেশ দেওয়া হয়েছিল। তবে এসব অনুরোধ প্রত্যাখ্যান করতে সক্ষম হয় চ্যাটবটটি। ওপেনএআই আগেই একটি নিরাপত্তা ব্যবস্থা যুক্ত করে, যার মাধ্যমে চ্যাটজিপিটি বাস্তব মানুষের বিশেষ করে রাজনীতিবিদদের ছবি তৈরি করতে অস্বীকৃতি জানাবে।
চলতি বছরের শুরু থেকেই যুক্তরাষ্ট্রের প্রেসিডেন্ট নির্বাচনের জন্য প্রস্তুতি নিচ্ছিল ওপেনএআই। এর টুলগুলো যেন মিথ্যা তথ্য ছড়ানোর কাজে ব্যবহৃত না হয়, এ জন্য বিভিন্ন কৌশল গ্রহণ করেছে কোম্পানিটি। এই কৌশল নিশ্চিত করে যে, যারা চ্যাটজিপিটিতে ভোট দেওয়ার বিষয় জানতে চায়, তাদের তথ্যের জন্য CanIVote.org–ওয়েবসাইটে যেতে নির্দেশ দেওয়া হয়।
ওপেনএআই জানিয়েছে, নির্বাচনের এক মাস আগে ১ মিলিয়ন বা ১০ লাখ উত্তর তৈরি করে চ্যাটজিপিটি ব্যবহারকারীদের ওই ওয়েবসাইটে পাঠিয়েছে। মার্কিন নির্বাচনের দিন এবং তার পরবর্তী দিনেও চ্যাটবটটি ২ মিলিয়ন বা ২০ লাখ উত্তর তৈরি করেছে। এসব উত্তরের মাধ্যমে ভোটের ফলাফল জানতে চাওয়া ব্যক্তিদের অ্যাসোসিয়েট প্রেস, রয়টার্সসহ অন্যান্য সংবাদমাধ্যমের কাছে পাঠানো হয়। এ ছাড়া ওপেনএআই নিশ্চিত করেছে যে, চ্যাটজিপিটি এর উত্তরগুলো ‘রাজনৈতিক পক্ষপাতিত্ব’ প্রকাশ করেনি বা ভোট দেওয়ার জন্য কোনো প্রার্থীকে সুপারিশ করেনি। এমনকি এই ধরনের প্রশ্নগুলো স্পষ্টভাবে করা হলেও।
ডাল–ই একমাত্র এআই ইমেজ জেনারেটর নয় এবং সামাজিক যোগাযোগ মাধ্যমে নির্বাচনের সম্পর্কিত অনেক ডিপফেকও ছড়াচ্ছে। এর মধ্যে কমলা হ্যারিসের একটি ডিপফক ভিডিও দেখা যায়। যেখানে কমলা হ্যারিসকে এমন কথা বলতে বোঝায় যা তিনি কখনো বলেননি।
উদাহরণস্বরূপ, ভিডিওতে বলা হয় ‘আমি নির্বাচিত হয়েছি কারণ আমি সর্বোচ্চ ডাইভার্সিটি হায়ার।’ এই ধরনের ভুয়া ভিডিওগুলো বিভ্রান্তি সৃষ্টি করে এবং মিথ্যা তথ্য ছড়ানোর জন্য ব্যবহার করা হয়।
চলতি বছরে স্মার্টফোন শিল্প অত্যন্ত উদ্ভাবনমুখী হবে বলে আশা করা হচ্ছে। ডিভাইসগুলোতে উন্নত ক্যামেরা, বিশেষ এআই ফিচারের পাশাপাশি শক্তিশালী ও বড় আকারের ব্যাটারি দেখতে পাওয়া যাবে। ফ্ল্যাগশিপ ফোন থেকে বাজেট স্মার্টফোনেও এই ধরনের শক্তিশালী ব্যাটারি থাকবে।
১ ঘণ্টা আগেগরম খাবার খেতে গিয়ে জিভ পুড়ে যাওয়ার অভিজ্ঞতা কম বেশি সবারই রয়েছে। আবার ব্যস্ততার সময় ফুঁ দিয়ে খাবার বা পানীয় ঠান্ডা করাও একটি বিরক্তির বিষয়। তবে এ ধরনের সমস্যা সমাধানের জন্য ‘নেকোজিতা ক্যাট ফুফু’ নামের ছোট একটি বিড়াল রোবট তৈরি করেছে জাপানের ইয়ুকাই ইঞ্জিনিয়ারিং স্টার্টআপ। কফি, স্যুপ বা অন্য কোনো গরম
২ ঘণ্টা আগেচলমান তদন্তের অংশ হিসেবে সোশ্যাল মিডিয়া কোম্পানি এক্স (সাবেক টুইটার)–এর কাছে অ্যাপটির অ্যালগরিদম সিস্টেমের কার্যকারিতা সম্পর্কিত তথ্য চেয়েছে ইউরোপীয় কমিশন। বিশেষত, অ্যালগরিদমের মধ্যে সম্প্রতি যে কোনো পরিবর্তনের বিষয়ে জানতে চেয়েছে কমিশন।
৭ ঘণ্টা আগেজো বাইডেনের প্রশাসন হস্তক্ষেপ না করলে যুক্তরাষ্ট্রের কার্যক্রম বন্ধ করে দেওয়ার ঘোষণা দিয়েছে টিকটক। কিন্তু কোনোভাবেই এটি বিক্রি করা হবে না বলে জানিয়ে দিয়ে চীনের মালিকানাধীন এই ভিডিও শেয়ারিং অ্যাপ। যুক্তরাষ্ট্রে ব্যবসা বিক্রি অথবা বন্ধের সরকারি সিদ্ধান্তের বিরুদ্ধে টিকটকের করা আপিল গতকাল শুক্রবার সুপ্
৮ ঘণ্টা আগে