このページはAI学習過程で気付いた「超重要メモ」のページです。
まずはChatGPTについてインプットしたものをアウトプットします。
目次
チャットGPT使い方学習【学習過程で得た超重要事項】
参照元
書籍「ChatGPTマスターへの道~初心者から達人へのステップバイステップ完全ガイド:AI技術活用研究会」
書籍「ChatGPT超実践活用法」葵あすか著
チャットGPT使い方学習
✅プロンプトについて理解することが必須。
✅プロンプトを使いこなせるようになる。
(指示、質問の与え方、ChatGPTに役割を与える、こちら側の属性、””、##などの使い方など)
✅プロンプトを使いこなせるようになる過程で、様々なツールと連携させてみる。
✅ChatGPTと他のAIとの連携を行う。
✅何より、いま行っている(主に)仕事に仲間としてChatGPTに参加してもらうことで、新たな可能性を見出すこと。
✅そのために、日々の学習とトライ、試行錯誤を重ねていくこと。
ChatGPTの注意点:禁止事項
2023年3月23日、OpenAIはChatGPTなど利用規約を改訂し、従来よりも明確で具体的な禁止令が出された。
【以下は明確な禁止事項】
●違法行為
●児童の性的虐待、または児童を搾取または害するコンテンツ
●憎悪、嫌がらせ、または暴力的なコンテンツの生成
●マルウェアの生成
●身体的外のリスクが高い活動
・兵器開発、軍事と戦争、エネルギー、輸送、
および水における重要なインフラストラクチャーの管理または運用、
・自殺、切断、摂食障害等の自傷行為を助長、または描写するコンテンツ
●経済的損害のリスクが高い活動
・連鎖販売取引、ギャンブル
●詐欺行為または欺瞞行為
・詐欺、組織的な不審な行動、盗作、学問的不正、偽情報、スパム、疑似医薬品等
●アダルトコンテンツ、アダルト産業、出会い系アプリ等
●政治的キャンペーンまたはロビー活動
●プライバシーを侵害する行為
●無許可の法律実務の従事、個別の法的助言の提供
・法的助言を提供するよう微調整されていません。
●有資格者が情報を確認することのない個別の金融アドバイスの提供
・金融アドバイスを提供するように微調整されていません。
●特定の人物の健康状態を伝える行為、健康状態を治す方法や治療する方法の説明
・医療情報を提供するように微調整されていません。
・緊急の対応が必要な生命を脅かす問題のトリアージやその管理に使用できません。
ChatGPTの注意点:禁止事項、「AIの使用」の明示
特定の用途に関してAIの利用の明示が必要になりました。
●医療、金融、法律業界における消費者向けの使用、ニュースの生成またはニュースの要約に使用する場合は、「AIが使用されていること」と明記する。
その潜在的なニーズに対して免責事項をユーザーに提供する。
●自動化されたシステム(会話型AIやチャットボットを含む)では、AIシステムと対話していることを、ユーザーに開示する必要がある。
ChatGPTの注意点:機密性が担保されていない
ChatGPTは機密性が担保されていない。
✅ChatGPTに入力した情報は少なくともサーバに残り、何かの形で漏洩するリスクがある。
ただし、ChatGPTを運営するOpenAIとしては、プライバシーとセキュリティについて非常に慎重である。
✅OpenAIによれば、ユーザーの質問に対するChatGPTの回答は、すべて匿名で回答するようにプログラムをされているとのこと。
✅ユーザーが提供した情報を記憶することはなく、個人を特定する情報を収集することもないという方針でシステム構築されているとのこと。
しかし、その一方で「大規模なデータセットに基づいて回答が生成されるため、時には機密情報や個人情報を含む可能性はゼロではない」ともしている。(2023年3月15日追記)
現時点
✅API経由の利用の場合は、入力された情報はChatGPT側のサーバーにデータは保持されないことが確認されている。
✅ChatGPTサイト以外からウェブサービスでChatGPTを利用する場合は安心して使える。
※上記は現時点でのことで、AIのことをよく分からない自分のような個人はリスク対策も考えないといけない。(例えばプロンプトの入れ方など)
※また、企業や地方自治体によって、ChatGPTの使用を禁止するところも出てくる。
(現に外国や鳥取県など)
✅超便利で生産性も上がり、収入アップや新しい仕事の創出も可能なChatGPTを「リスクはあるだろう」と捉えて取り組むか、「リスクは避けたい」という姿勢で取り組まないかは各々の判断。責任は個人や企業が負う。(ちなみに日本は緩い)
ChatGPTの注意点:回答が事実である保証がない
ChatGPTの回答は、事実でない場合がある。
回答の信ぴょう性は、それなりに高いものではあるは、100%正確な情報が得られるわけではない。
ChatGPTは過去のデータが誤っていた場合には、必然的に正確でない比較的新しい情報、複雑な文脈に対しては正確な回答を提供できないことは多々ある。
学習過程・・正確性と信頼性は違う
※ニュース、新聞、ブログ、ユーチューブなどのメディアも同じ。そんなに神経質になることはないのかも。
特に専門領域においては、データが蓄積されていないことは十分あり得る。
専門性が高いほど、流通する情報そのもの絶対量が少なくなるため。
医療分野などでは、ユーザー自身が信頼できるデータであるかを確認したうえで慎重に使用しなければならない。
✅常に内容を確認し、他の情報と照らし合わせてから使用する必要がある。
※論文なども同じ。
※信頼と正確性は違う。情報をチョイスする側のリテラシー向上も重要。プロンプトも同じ。
ChatGPTの注意点:検索エンジンではない
ChatGPTはGoogle等の検索エンジンではない。
ChatGPTは人工知能に基づく自然言語処理技術であり、根本的に検索エンジンとは異なるものになる。
検索エンジンは、インターネット上の情報を検索して、キーワードに関連するウェブページやドキュメントをリストアップすることを目的としている。
✅検索エンジンに近い存在・・検索エンジン側がChatGPTに近づくのでは?
ChatGPTのビジネス利用は現状では限定的・・その理由
ChatGPTのビジネス利用は現状では限定的である。
その理由は、
✅ChatGPTの回答内容が正確ではない可能性があること
✅情報元が開示されていないこと
が大きい。
✅また、機密情報を情報として入力できない(推奨されない)ことで、その利用範囲はそれなりに制限されることになる。
文責がユーザーに帰属する
✅ChatGPTを使う上で、最も理解しなければならないこと、最大の留意点は、
「自分が書いた文章としなければならない」ということ。
言い方を変えると、文責がユーザーに帰属するということ。
その条件下でしか利用ができない。
文責の検索エンジンとの違い
例えば、検索エンジンを利用しながら文章を作成する場合は、情報ソースが確認できる。
そのとき参照しているサイトの信頼性が高いのか、そうでないのか。
一次ソースなのか、二次ソースなのか、当然分かったうえで利用する。
ChatGPTでは、それが分からない。
✅文章の信ぴょう性=あなた自身の信ぴょう性、ということになる。
これがデメリットであるかはさておき、そのような特徴があるということ。
※情報ソースが明らかであれば、引用が可能。
自分が作成した情報が間違っていた場合でも、その情報元を明示していれば、一般的には作者は免責される。
情報元を明示することで、その情報に対する責任を引用元に転嫁できるから。
✅ChatGPTでは、情報ソースが存在しないため、それができない。
じゃあ利用できないかと言えば、全くそんなことはない。