ළමා අපචාර සම්බන්ධ ඡායාරූප සොයා Apple සමාගම iPhone සහ iCloud scan කිරීමට neuralMatch නම් පහසුකමක් හඳුන්වාදීමට සූදානම් වේ

· 1 min read
ළමා අපචාර සම්බන්ධ ඡායාරූප සොයා Apple සමාගම iPhone සහ iCloud scan කිරීමට neuralMatch නම් පහසුකමක් හඳුන්වාදීමට සූදානම් වේ

Apple සමගම යනු තමන්ගේ පාරිභෝගිකයන්ගේ පෞද්ගලිකත්වය සහ පාරිභෝගිකයන්ගේ දත්ත වල ආරක්ෂාව පිළිබඳව විශාල වශයෙන් සැලකිලිමත් වන සමාගමක් විදිහට ලොව පුරා ප්‍රචලිත වී ඇති සමාගමකි. නමුත් Apple සමගම විසින් නිවේදනය කර ඇති ආකාරයට iOS 15 සංස්කරණය හරහා ඔවුන් විසින් iPhone සහ iCloud වල ගබඩා වී ඇති photos scan කිරීමට කටයුතු කිරීමට නියමිතයි. මේ හරහා ඔවුන් සූදානම් වන්නේ ළමා අපචාර වලට සම්බන්ධ ඡායාරූප හඳුනාගෙන ඒවා ඇති ජංගම දුරකතන සහ iCloud ගිණුම් හිමියන් හඳුනාගැනීමයි.

මේ ආකාරයට ළමා අපචාර වල සම්බන්ධ ඡායාරූප හඳුනා ගැනීම සඳහා ඔවුන් විසින් neuralMatch නමින් පද්ධතියක්ද හඳුන්වා දී තිබෙනවා. මෙම පද්ධතිය නිර්මාණය කිරීමේදී එම පද්ධතිය පුහුණු කිරීම සඳහා ඇමරිකා එක්සත් ජනපදයේ National Center for Missing and Exploited Children හරහා ලබා ගත් ඡායාරූප 200,000ක ප්‍රමාණයක් භාවිතා කර ඇති අතර ඒ හරහා පුහුණු වූ neuralMatch පද්ධතිය හරහා ළමා අපචාර වලට සම්බන්ධ ඡායාරූප හඳුනාගෙන අදාල නීතිමය කටයුතු සඳහා වන බලධාරීන් වෙත යොමු කිරීම සිදු කරනු ඇති බව Financial Timesහි පල වූ වාර්තාවේ පහත අයුරින් දක්වා තිබෙනවා.

“According to people briefed on the plans, every photo uploaded to iCloud in the US will be given a ‘safety voucher,’ saying whether it is suspect or not. Once a certain number of photos are marked as suspect, Apple will enable all the suspect photos to be decrypted and, if apparently illegal, passed on to the relevant authorities,”

Financial Times වාර්තාවෙන් පසුව Apple සමගම විසින් නිල වශයෙන් මේ පිළිබඳව ඔවුන්ගේ Newsroom එක හරහා වැඩි දුර විස්තර ලබා දෙමින් වාර්තා කිරීමට කටයුතු කර තිබෙනවා. එහි සඳහන් වන ආකාරයට iPhone එකක් හරහා ළමයෙකු වංවේදී සහ ඔවුන් අපචාරයට ලක්වෙනු ඇතැයි සැලකෙන ඡායාරූප iMessage හරහා යොමුකිරීම සිදුකෙරුනොත් ඒ පිලිබඳව ඔවුන්ගේ දෙමව්පියන්ට දන්වා සිටීමද neuralMatch හරහා සිදු කෙරෙනවා. මේ ආකාරයට මෙම පද්ධතිය නිර්මාණය කිරීම සහ on-device machine learning සඳහා Apple සමාගම විසින් ළමා ආරක්ෂක විශේෂඥයන්ගේ සහයද ලබා ගැනීම සිදු කර තිබෙනවා.

Messages will warn children and their parents when receiving or sending sexually explicit photos.

ඊට අමතරව Apple සමාගම විසින් ඔවුන්ගේ මෙම නව තාක්ෂණය හරහා iCloudහි ගබඩා වී ඇති ඡායාරූපද පරික්ෂාවට ලක් කෙරෙන අතර එහිදී ළමා අපචාර සම්බන්ධයෙන් වන චායාරූප පැවතියහොත් Apple සමාගම විසින් අදාල iCloud ගිණුම අක්‍රීය කර, එම ගිණුම හා සම්බන්ධ තොරතුරු he National Center for Missing and Exploited Children (NCMEC) වෙත වාර්තා කිරීම සිදු කරනු ලබනවා. නමුත් මෙම පද්ධතිය හරහා අත්වැරදීමකින් යම් ගිණුමක් අක්‍රීය වුවහොත් ඒ පිලිබඳව පැහැදිලි කර එම ගිණුම යලි ස්ථාපනය කරගැනීම සඳහාද ඔවුන්ට අවස්ථාව හිමිවනවා.

Siri will provide resources and help around searches related to CSAM.

මෙම නව පහසුකම ඉදිරියේදී නිකුත් වීමට නියමිතව ඇති iOS 15, iPadOS 15, WatchOS 8 සහ macOS Monterey සංස්කරණ සමඟ ඇමරිකා එක්සත් ජනපදය වෙත නිකුත් කිරීමට නියමිතය. නමුත් මේ පහසුකම අනෙකුත් රටවල් සඳහා අනාගතයේදී නිකුත් කරන්නේද නැද්ද යන්න පිළිබඳව Apple සමාගම විසින් පල කල වාර්තාවේ සඳහන් වී තිබුණේ නම් නෑ.

Sources: Apple Newsroom, The Verge