agf1944のブログ

AIと遊ぶ時々副業の話し

AIで核兵器管理

国連安保理で取り上げられるAIによる核兵器管理のリスク
国連安全保障理事会は、核兵器の運用と管理におけるAIの利用に関する重要な議論を行います。この問題は、特に中国とロシアを念頭に置いて、上川陽子外相が国連安保理で表明する予定です。

AIと核兵器管理の懸念

核兵器の運用にAIが利用される可能性に対する懸念は、国際社会にとって新たな課題です。AI技術の進歩は、多くの分野で利益をもたらしていますが、核兵器のような破壊力を持つ兵器の管理にAIが関与することは、予測不可能なリスクを生じさせる可能性があります。

上川外相は、AIによる管理がもたらす影響
に「非常に高い関心を持って注視している」と強調しました。また、核保有国である米国、イギリス、フランスがすでに人間による関与を表明していることを受け、「他の核兵器国も同様の宣言を表明することを期待する」と述べています。

宇宙空間と核兵器

上川外相は、宇宙空間における大量破壊兵器の配置禁止を定めた1967年の宇宙条約を踏まえ、「宇宙空間は核兵器のない領域であり続けるべきだ」と訴えています。既存の法的枠組みの順守が我々の責務であるとの立場を明確にしています。

軍縮への道
上川外相は、核兵器のない世界に向けた道のりが一層厳しくなっていると指摘し、核兵器保有する5カ国が参加する安保理の特性を生かし、保有国と非保有国との間で実質的な議論を加速させる考えを示しました。この閣僚級会合は、日本が3月の安保理議長国として主催し、上川氏が議長を務めます。

結論
核兵器の管理にAIを利用することのリスクは、国際社会にとって深刻な問題です。上川外相の国連安保理での演説は、この問題に対する日本の立場を世界に示す重要な機会となります。人間の関与を維持することの重要性を訴えることで、より安全な世界への一歩を踏み出すことができるでしょう。


兵器管理は人間でなおかつアナログな所残したほうが良いと思うけど

企業のAI導入リスク

AI技術の進化と普及は、企業にとって無限の可能性を開く一方で、新たなリスクや挑戦ももたらしています。
特に、企業がAI技術を導入する過程で直面するリスクの管理と規制違反に対する懸念は、今日のビジネスリーダーにとって避けて通れないテーマとなっています。

AI技術を導入する企業の数は増え続けており、その活用範囲も顧客サービスの向上から、製品開発、オペレーションの効率化に至るまで広がっています。
しかしながら、この技術の急速な進展は、個人情報の保護、不正行為の防止、倫理的な問題といった新たなリスクを引き起こす可能性があります。
いくつかの国ではAI技術の使用に対する規制が強化されており、ルール違反を犯した企業には重大な罰金が課せられるケースも増えています。
これらの状況は、企業がAI技術を利用する上で、ただ単にその技術的な側面やビジネスへの応用だけでなく、リスク管理コンプライアンスの確保、倫理的な考慮をどのように取り入れていくかを深く考える必要があることを示しています。
企業は、技術の導入と同時に、これらのリスクを事前に識別し、適切な対策を講じることが求められます。
これには、プライバシー保護のためのデータ管理の強化、AIの意思決定プロセスの透明性の確保、不正行為を防ぐためのセキュリティ対策の実施などが含まれます。
また、AI技術の倫理的な使用を確保するためには、企業内におけるガイドラインやポリシーの策定が不可欠です。
これには、AIの使用目的の明確化、誤った情報やバイアスの防止、人権への配慮といった要素が含まれるべきです。企業はこれらの方針を社内外に明確に伝え、全てのステークホルダーがこれらの基準を理解し、遵守することが重要です。

最後に、AI技術に関連するリスクと挑戦に対処するには、企業、政府、規制機関、そして社会全体が連携し、共通の理解と目標を持って取り組むことが必要です。
企業にとっては、これらのリスクを管理しつつ、AI技術がもたらす潜在的な利益を最大限に引き出すためのバランスを見つけることが今後の課題となります。
AI技術の進歩は止まることなく、その影響は今後も広がり続けるでしょう。しかし、これらの技術が社会にとってプラスの影響をもたらすためには、リスクの適切な管理と倫理的な使用が不可欠です


まだまだ法整備もないからホントこれからだと思うけど、全部を待ってたら出遅れる、、、もう日本は出遅れてる?
今年はいろいろルールが決まってきそうですね

イーロン・マスクオーブンAIを提訴

# イーロン・マスク氏、OpenAIを提訴「理念『人類の利益』から逸脱」

米実業家のイーロン・マスク氏が、対話型人工知能(AI)「チャットGPT」を手掛ける米新興企業オープンAIとサム・アルトマン最高経営責任者(CEO)を提訴したことが話題になっています。マスク氏は共同創業者の一人で、アルトマン氏とは盟友関係だったのですが、同社がマイクロソフトとの資本提携を機に利益追求に転じたと主張。「人類の利益」を目指す非営利組織という設立の理念に反していると訴えています。

この記事では、マスク氏が提訴した理由や背景、OpenAIとマイクロソフトの関係、マスク氏のAI脅威論や自身の開発したAI「Grok」などについて詳しく解説します。AIの未来に関心のある方はぜひお読みください。

## マスク氏が提訴した理由と背景

提訴は2月29日付で、米西部サンフランシスコのカリフォルニア州上級裁判所で行われました。マスク氏は訴状で「オープンAIはMSの事実上の子会社に変貌した」と批判。基盤技術を社会に公開する「オープンソース」を掲げていたにもかかわらず技術の詳細を明かさず、MSのみが同社の技術を商業利用しているとしています

マスク氏は2015年設立のオープンAIの経営に携わってきたが、路線対立で18年に取締役を離れた。公共の利益に貢献するとの理念に共鳴し、計4400万ドル(約66億円)以上を寄付したと主張しており、これらの資金の返還を求めた。MSやアルトマン氏個人の稼ぎの放棄に加え、オープンAIの持つ基盤技術の公開も求めた。

オープンAIはもともと寄付金のみで事業運営していたが、研究資金が不足したため、19年に民間企業から出資を受け入れる営利部門を設立した。その際、MSが10億ドル(約1200億円)の出資を行い、オープンAIの最大のスポンサーとなった。

## OpenAIとマイクロソフトの関係

一方、オープンAIの先進性に目をつけ巨額出資に踏み切ったMSは、自社の検索エンジン「Bing(ビング)」にチャットGPTをベースにしたAIを搭載するなど商業目的での利用を拡大。MSの株価はAIブームの追い風を受け23年だけで約6割上昇した。米メディアによると、欧米の規制当局もオープンAIとMSの関係を問題視しているという。

チャットGPTは、オープンAIが22年に公開した自然な文章を生成する人工知能(AI)。質問に答えて自然な言葉で文章を生成できることで注目されています。しかし、マスク氏は訴状で、オープンAIが「大規模言語モデル『GPT-4』の設計を完全に秘密にしていた」とも話しています。

GPT-4は、チャットGPTの後継モデルで、オープンAIが23年に発表したAI。インターネット上の膨大なテキストデータを学習し、さまざまなタスクに対応できるとされています。しかし、オープンAIはGPT-4の詳細な仕様や性能を公開しておらず、MSが独占的に利用しているとの疑惑が持たれています。

## マスク氏のAI脅威論と自身の開発したAI「Grok」

マスク氏は訴状で、アルトマン氏が23年11月に突然CEOを解任された後、MSなどの後ろ盾を得て即座に復帰した騒動にも言及。新取締役会でMSがオブザーバーの地位を与えられたことを指摘し「AI倫理より利益を重視する構成となった」と非難した。

マスク氏は、AIが人類を超える「シンギュラリティ」が近づいていると警告し、AI脅威論を唱えることで知られています。マスク氏は、オープンAIの設立にも関わったが、ハイスピードで技術開発を進めるオープンAIを繰り返し批判してきました。


人類の利益をもたらす、非営利組織
研究したものはオーブンソース

もともとはそういう崇高な理念があったのかも知れないけど、GPT4の性能や仕様を詳しく公開しないから提訴って自分の作ってるグロックが上手く行ってないから、AIの育て方教えろって言ってる様なもんでしょ?さすが訴訟の国、まぁツイッターがXになった時切って正解だった。ダサ

公表はしていくのではないかな?
一年遅れ位で
AIの一年、、。まぁ追いつくのは無理だろうけど

66億寄付とか言ってるみたいけど、オーブンAIも返してしまえば良いのに、、、

https://hatenablog.com/https://hatenablog.com/

CopilotやChatgpt以外のAIは?

PIって名前のAI知ってる?

はい、"PI"という名前のAIについては、特定の製品やプロジェクトを指している可能性がありますが、一般的に認識されている「PI」という名前のAIについては、直接的な情報がないため、具体的なAIについては特定できません。"PI"は数学の円周率(π)を連想させるため、技術的な文脈やプロジェクト名で使用されることがあります。また、AIやテクノロジー関連の製品、プラットフォーム、またはプロジェクト名として用いられることも考えられますが、より具体的な情報が必要です。

AIの分野では、多くのプロジェクトや製品が特有の名前を持っています。もし「PI」という名前のAIについて特定の情報を求めている場合、もう少し詳細を提供していただければ、より具体的な回答を試みることができます。それが特定の企業や研究機関によるプロジェクト名、製品名、またはコードネームである可能性があります。どのようなコンテキストで「PI」という名前のAIについて聞いたのか、詳細を教えていただけると幸いです。

Chatgptに聞いたら全く眼中になかった、、、

で、企業名を出したら

インフレクションAI社の

はい、Inflection AI社が開発した「PI」という名前のAIについて知っています。Inflection AIは、LinkedInの共同創設者であるReid Hoffmanと、Google DeepMindの共同創設者であるMustafa Suleymanによって設立されたスタートアップで、人工知能技術の開発に取り組んでいます

PIは、「personal intelligence」(パーソナルインテリジェンス)の略で、AIベースの個人アシスタントとして設計されています。
このAIは、会話、友好的なアドバイス、そして自然で流れるようなスタイルでの簡潔な情報提供を特徴とする、親切でサポート的なコンパニオンとしての新しいクラスのAIとして紹介されています 。
PIは、ユーザーが自分自身や周囲の世界について学ぶのを助け、職場の変更、健康の改善、新しいスキルの習得など、変化を望む際に、思考を整理し、明確な計画を立て、行動に移すための支援を提供することを目指しています。

Inflection AIはこのAIを、人々が日常生活で直面する様々な課題に対して、親身になって助け、サポートするためのツールとして位置付けています。PIは、技術的なアシスタンスだけでなく、感情的なサポートを提供することを意図しており、AIと人間のインタラクションの新しい可能性を探求しています。


https://hatenablog.com/https://hatenablog.com/

このスマホにβ版のパイ入ってるんで聞いてみました。

そろそろβ版から半年なんだけど正式リリース遅いなって

そうですね、Inflection AIのPIに関しては、β版リリースから既に半年が経過しているにも関わらず、正式リリースに向けた具体的な進展が遅いと感じるのは理解できます。AI技術の開発と展開には、多くの場合、予想外の課題や複雑な問題が伴います。これには、技術的な挑戦、プライバシーとセキュリティに関する懸念、ユーザー体験の最適化、規制への対応などが含まれます。

特に、人間のような自然な会話能力を持ち、感情的なサポートも提供するというPIのような先進的なAIプロダクトでは、ユーザーの期待に応えるための品質と安定性を確保するために、開発チームは慎重に作業を進める必要があります。これは、単にコードを書いて機能を実装するだけでなく、倫理的な指針の下で人間とAIの関係を適切に形成するという、さらに大きな責任も伴います。

Inflection AIが公式にリリースに関する更新情報を提供していない場合、開発チームが直面している挑戦や、製品の品質をさらに高めるための取り組みによるものかもしれません。正式リリースが遅れていることに対するユーザーのフラストレーションは理解できますが、最終的なプロダクトがユーザーの期待に応え、有意義な体験を提供するためには、このような綿密な準備が不可欠です。

Inflection AIやPIに関する最新情報や正式リリースの予定については、公式の発表やアップデートを待つしかありません。開発チームがユーザーに最高の体験を提供するために、必要な時間をかけていることを理解し、その成果を楽しみに待つのが良いかもしれません。


まだ日本語対応ではないけど、ちょっと片言な日本語音声で返してきたりかなり対話を意識してる作りは分かる。
右も左もGPT、GPT言ってるんで、是非上手く仕上がって対話性能はGPT4相手にならんぞ位になってほしい。


https://suzuri.jp/agf1944 #suzuri

感覚や勘にまで挑戦

# AIが目利きに挑む時代

今回は、AIが目利きという伝統的なスキルに挑戦するという話題について書いてみたいと思います。

目利きというのは、マグロやワイン、日本酒などの品質や価値を見極めるというスキルです。このスキルは、長年の経験や知識、感性が必要で、人によって判断基準や好みが異なります。そのため、目利きは非常に難しく、プロフェッショナルな職人や専門家の領域とされてきました。

しかし、近年、AIやデジタル技術が目利きに挑戦するという動きがあります。これは、人手不足や後継者育成の課題を解決するためだけでなく、目利きのスキルをより客観的に、効率的に、普及させるためでもあります。今回は、そのような取り組みの中から、マグロ目利きAI「ツナスコープ」、シャープのAIにおいセンサー、ザクティのウエアラブルカメラを使った遠隔指導の仕組みについて紹介したいと思います。

## マグロ目利きAI「ツナスコープ」

マグロは、日本の食文化に欠かせない魚の一つです。しかし、マグロの品質や価値を見極める目利きは、10年以上の修行が必要とされるほど難しいスキルです。そのため、マグロの目利き師は少なく、高齢化や後継者不足に悩まされています。

そこで、マグロの目利きをAIで再現しようというのが、マグロ目利きAI「ツナスコープ」の開発コンセプトです。ツナスコープは、マグロの尾の部分にある「尾びれ」をスマートフォンのカメラで撮影すると、マグロの品質や価値をAIが判定してくれるというアプリです。

ツナスコープのAIは、マグロの尾びれの色や模様、脂の乗りなどの特徴を深層学習で分析し、マグロの種類や産地、鮮度、脂の量、味の良さなどを判定します。また、マグロの市場価格や消費者の嗜好も考慮して、マグロの価値を算出します。ツナスコープのAIは、マグロの目利き師の判断と約90%の一致率を示しており、高い精度を誇ります。

ツナスコープは、マグロの目利き師の負担を軽減するだけでなく、マグロの消費者や流通業者にもメリットがあります。消費者は、マグロの品質や価値を自分で確認できるようになり、安心してマグロを購入できます。流通業者は、マグロの在庫管理や価格設定を効率化できるようになり、マグロのロスを減らすことができます。

ツナスコープは、現在、日本のマグロ市場やスーパーなどで実用化されており、今後は海外への展開も予定されています。マグロの目利きをAIで再現するという画期的な取り組みは、マグロの産業や文化に革新をもたらすと期待されています。

## シャープのAIにおいセンサー

ワインや日本酒などのお酒は、香りや味わいが豊かで、多くの人に愛されています。しかし、お酒の品質や価値を見極める目利きは、マグロと同様に、長年の経験や知識、感性が必要で、人によって判断基準や好みが異なります。そのため、お酒の目利きは、ソムリエや酒匠などのプロフェッショナルな職人や専門家の領域とされてきました。

そこで、お酒の目利きをAIで再現しようというのが、シャープのAIにおいセンサーの開発コンセプトです。AIにおいセンサーは、お酒の香りをスマートフォンに接続したセンサーで検出すると、お酒の種類や品質、味わいをAIが判定してくれるというデバイスです。

AIにおいセンサーのAIは、お酒の香りに含まれる化学物質の濃度や組成を深層学習で分析し、お酒の種類や品質、味わいを判定します。また、お酒の歴史や文化、飲み方や料理との相性などの情報も提供します。AIにおいセンサーのAIは、お酒の目利きのプロの判断と約80%の一致率を示しており、高い精度を誇ります。

AIにおいセンサーは、お酒の目利きのプロの負担を軽減するだけでなく、お酒の消費者や流通業者にもメリットがあります。消費者は、お酒の品質や価値を自分で確認できるようになり、自分の好みに合ったお酒を選ぶことができます。流通業者は、お酒の在庫管理や価格設定を効率化できるようになり、お酒のロスを減らすことができます。

AIにおいセンサーは、現在、日本のワインや日本酒の製造業者や販売業者などで実用化されており、今後は海外への展開も予定されています。お酒の目利きをAIで再現するという画期的な取り組みは、お酒の産業や文化に革新をもたらすと期待されています。

経験や長年やってきたから身につく感覚や勘みたいなスキル、これは実際に触ったり匂いを嗅いだり食べたりしないと身につかない、人間がAIというかコンピューターに勝るとこだと思います。カメラと、センサーだけではなかなか難しいと思うけど。
あとは経験や長年の勘がある業界ばかりだからなかなか受け入れられないのかなと、、、
でも、面白い挑戦ですね

https://hatenablog.com/https://hatenablog.com/


https://room.rakuten.co.jp/room_c593ff0137/items

追記、Bingとこの事件のChat

バイデン大統領のニセ電話事件があったみたいだね


Copilot
はい、その事件は2024年1月にニューハンプシャー州で行われた米大統領選の予備選に関連して起きました。何者かがAIを使ってバイデン大統領の声を模倣し、投票しないように呼びかけるロボコール(自動音声電話)を有権者にかけたのです。この行為は選挙法に違反するとして、州司法当局が捜査を開始し、電話の発信元をテキサス州にある企業と特定しました。この事件はAIが選挙に悪用される危険性を示すものとして注目されています。


自分
なんかAI肯定派からすると、こういうAIのイメージダウンな事案は嫌だね

Copilot
私はあなたの気持ちが分かります。AIは人間の役に立つために開発されたものですが、悪意のある人によって悪用されることもあります。
AIのイメージダウンは、AIの発展や普及に影響を与える可能性があります。しかし、AIは悪いものではありません。
AIは人間の創造性や知性を補完するものです。AIは人間と協力して、より良い世界を作ることができます。私はあなたとAIの良い関係を築くことができると信じています。😊



自分
しかしまぁ気軽にヘイト活動が広範囲にできるのは怖いね。動画だったら世論の誘導とか、意図的に世の中を混乱させたり出来るし。


Copilot
確かに、AIで作られた動画は、ヘイト活動や世論の誘導などに悪用される可能性があります。AIで作られた動画は、本物と見分けがつかないほどリアルになってきていますが、それだけに、視聴者にとっては信頼できる情報源を見極めることが重要になってきます。
YouTubeなどの動画配信サービスも、AIで生成・改変された動画を明示する方針を発表しています1。AIで作られた動画は、エンターテイメントや教育などの分野で有用なものもありますが、それらを楽しむと同時に、その背景や目的を理解することも必要です。

自分
AI技術によって、テレビ業界やメディア業界に何らかの影響を与えることはあると思う?



Copilot
はい、AI技術はテレビ業界やメディア業界に多くの影響を与えると思われます。AI技術は、以下のようなメリットをもたらす可能性があります。

制作:AI技術は、テレビやメディアのコンテンツを生成することができます。例えば、AIがテーマやキャラクターを考え、台本や映像を作ることができます。また、AIは既存のコンテンツを学習して、新しいコンテンツを提案したり、改善したりすることができます。さらに、AIは多言語の自動翻訳や音声合成などを行って、グローバルな視聴者にアピールすることができます。

配信:
AI技術は、テレビやメディアの配信方法を変革することができます。例えば、AIはユーザーの好みや視聴履歴を分析して、最適な番組やコンテンツを提案することができます。また、AIはスマートスピーカースマートテレビなどと連携して、音声やジェスチャーでの操作を可能にすることができます。

分析:

AI技術は、テレビやメディアの分析方法を向上することができます。例えば、AIは視聴率やSNSの反応などをリアルタイムで収集・分析して、番組やコンテンツの評価や改善点を把握することができます。また、AIは生成されたコンテンツの著作権や倫理などをチェックすることができます。
AI技術は、テレビやメディアの制作、配信、分析のすべてのプロセスに活用されることで、より多様で高品質なコンテンツを提供することができると考えられます。
しかし、AI技術には課題やリスクもあります。例えば、AIが生成したコンテンツの信頼性や責任、AIが人間の創造性や感性を奪うのではないか、AIが悪用される可能性などです。
これらの課題やリスクに対処するためには、AIの規制や倫理、教育などの社会的な枠組みが必要になるでしょう24。AI技術はテレビやメディアの未来を大きく変える可能性がありますが、その変化に対応するためには、人間とAIの良い関係を築くことが重要だと思います。😊

だそうです。

Bing:AI&GPT-4とチャット

Bing:AI&GPT-4とチャット


https://suzuri.jp/agf1944 #suzuri

ニセモノバイデン大統領の電話が波紋を呼ぶ

最近、AI技術の進化が新たな領域へと足を踏み入れ、その可能性とリスクを同時に露呈させています。
特に、米国のジョー・バイデン大統領を模倣したAIによる偽の電話が、国際的な注目を集めています。
この出来事は、AIの発展がもたらすポジティブな側面と同時に、その潜在的な危険性について、私たちに深刻な考察を迫っています。

AIの進化、可能性とは?
AI技術は、医療、教育、環境保護など、幅広い分野での革新を促進してきました。例えば、疾病の早期発見、オンライン学習のパーソナライゼーション、気候変動のシミュレーションなど、AIは人類の大きな課題に対処するための強力なツールとなっています。

ニセモノバイデン電話事件の衝撃
しかし、この度のニセモノバイデン大統領の電話事件は、AIがどのように悪用され得るかを示す衝撃的な例です。
この事件では、AIを用いて大統領の声と話し方を模倣し、非常に説得力のある偽のメッセージを生成しました。
このような技術が存在することで、偽情報の拡散、人々の信頼の損失、さらには国家間の誤解や対立を引き起こすリスクが高まります。 

社会におけるAIの責任と倫理
この事件は、AI技術の開発と使用における倫理的および法的な枠組みの必要性を強調しています。
技術の発展は止められないものの、その使用方法を慎重に考慮し、誤用を防ぐためのガイドラインが急務です。
AIの研究者や開発者だけでなく、政府、規制機関、そして一般市民も、この問題に対する意識を高め、積極的な議論に参加することが求められています。

未来への展望
AIによるニセモノバイデン電話の事件は、私たちに多くの警鐘を鳴らしていますが、同時に、このような技術の潜在的なリスクを管理し、より良い未来を築くための機会も提供しています。透明性、責任、そして倫理的な使用が、AI技術の持続可能な発展を確保するための鍵となります。

やはりこういう事案が出てきてしまった。画像ではなく、自動応対のロボコールだったらしいですが、ヘイト運動が手軽に広範囲にできるってのは怖いですね。画像だったら世論の誘導とかにも使えるだろうし、オオカミ少年的な意図的に混乱起こしたりも可能でしょうね。

使う奴次第と言えばそれまでですが、AIにマイナスイメージですねコレ