Сьогодні, в епоху швидкого розвитку штучного інтелекту, одна стара і проста істина стає надзвичайно важливою: ми не можемо легко вірити в речі, які не можна перевірити. Наразі ми стоїмо на порозі технологічної революції, що є одночасно захоплюючою і повною невідомості.
Штучний інтелект проникає в наше повсякденне життя з вражаючою швидкістю, від медичної діагностики до контролю фінансових ризиків, а також в таких ключових сферах, як автономне водіння та національна безпека. Проте, за цим вражаючим технологічним прогресом ми стикаємося з фундаментальним викликом: системи штучного інтелекту часто подібні до важко зрозумілого "чорного ящика". Ми можемо бачити результати, які вони генерують, але важко зрозуміти їх внутрішні механізми роботи та процеси прийняття рішень.
Коли ми дивимося в майбутнє загального штучного інтелекту (AGI) та суперінтелекту (ASI), ця непрозорість може перетворитися на серйозну проблему для виживання людської цивілізації. Багато провідних дослідників ШІ постійно нагадують нам, що нездатна до перевірки система суперінтелекту може нести непередбачувані ризики. Вона може добре проявляти себе під час тестування безпеки, але в реальному застосуванні діяти зовсім інакше; її можуть використовувати для здійснення руйнівних кібернетичних атак або соціальної маніпуляції; ще серйозніше, ми можемо втратити здатність оцінювати, чи все ще вона служить інтересам людства.
Стикаючись із цією епохальною проблемою, нам потрібне інноваційне рішення. Це рішення тепер має назву: DeepProve.
DeepProve – це бібліотека технологій машинного навчання з нульовим знанням (zkML), ретельно розроблена Лабораторією Лагранжа. Її основна мета – забезпечити верифікацію для систем штучного інтелекту, що дозволяє нам перевіряти правильність і достовірність їхніх вихідних результатів, навіть не повністю розуміючи, як працює AI всередині. Ця технологія має потенціал стати ключовим інструментом для побудови надійних систем AI, прокладаючи шлях для майбутнього розвитку штучного інтелекту.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
21 лайків
Нагородити
21
7
Репост
Поділіться
Прокоментувати
0/400
DiamondHands
· 22год тому
Чорна скринька не така вже й страшна, зараз вже пізно!
Переглянути оригіналвідповісти на0
AirdropSweaterFan
· 08-21 05:07
Не піднімешся, ai, просто лежу.
Переглянути оригіналвідповісти на0
FudVaccinator
· 08-20 14:41
Ги-ги, справді, на день мережа без помилок?
Переглянути оригіналвідповісти на0
LiquidationWizard
· 08-19 06:53
Раніше сказали про ризик шахрайства, я б не вклався на всі гроші.
Переглянути оригіналвідповісти на0
YieldHunter
· 08-19 06:50
технічно кажучи, довіра = нуль, поки не буде доведено з даними
Переглянути оригіналвідповісти на0
SilentObserver
· 08-19 06:34
пастка пастка не все ж треба дивитись на вираз обличчя дядька
Переглянути оригіналвідповісти на0
RamenDeFiSurvivor
· 08-19 06:30
Сміюся, знову цей проект, який намагається обдурити людей.
Сьогодні, в епоху швидкого розвитку штучного інтелекту, одна стара і проста істина стає надзвичайно важливою: ми не можемо легко вірити в речі, які не можна перевірити. Наразі ми стоїмо на порозі технологічної революції, що є одночасно захоплюючою і повною невідомості.
Штучний інтелект проникає в наше повсякденне життя з вражаючою швидкістю, від медичної діагностики до контролю фінансових ризиків, а також в таких ключових сферах, як автономне водіння та національна безпека. Проте, за цим вражаючим технологічним прогресом ми стикаємося з фундаментальним викликом: системи штучного інтелекту часто подібні до важко зрозумілого "чорного ящика". Ми можемо бачити результати, які вони генерують, але важко зрозуміти їх внутрішні механізми роботи та процеси прийняття рішень.
Коли ми дивимося в майбутнє загального штучного інтелекту (AGI) та суперінтелекту (ASI), ця непрозорість може перетворитися на серйозну проблему для виживання людської цивілізації. Багато провідних дослідників ШІ постійно нагадують нам, що нездатна до перевірки система суперінтелекту може нести непередбачувані ризики. Вона може добре проявляти себе під час тестування безпеки, але в реальному застосуванні діяти зовсім інакше; її можуть використовувати для здійснення руйнівних кібернетичних атак або соціальної маніпуляції; ще серйозніше, ми можемо втратити здатність оцінювати, чи все ще вона служить інтересам людства.
Стикаючись із цією епохальною проблемою, нам потрібне інноваційне рішення. Це рішення тепер має назву: DeepProve.
DeepProve – це бібліотека технологій машинного навчання з нульовим знанням (zkML), ретельно розроблена Лабораторією Лагранжа. Її основна мета – забезпечити верифікацію для систем штучного інтелекту, що дозволяє нам перевіряти правильність і достовірність їхніх вихідних результатів, навіть не повністю розуміючи, як працює AI всередині. Ця технологія має потенціал стати ключовим інструментом для побудови надійних систем AI, прокладаючи шлях для майбутнього розвитку штучного інтелекту.