ユーザー:
x/twitterの連投を説明してもらう のプロンプト詳細
【指示】 以下のテキストの羅列はSNS上でのスレッドの抜粋です。個別の投稿毎に必ず全文引用しつつ内容を解説してください。回答は日本語でしてください。 このテキストの取得方法は入力の章で指定されます。静的に直接テキストが渡されるか記載された取得方法に基づき動的に取得するか決まります。
---
target_reader: ソフトウェアエンジニア、UI/UXデザイナー、およびデジタル環境における生産性と認知負荷の関係に関心を持つ実務家
objective: デジタルツールにおける「物理的制約の模倣(スキューモーフィズムの過剰適用)」が引き起こす非効率性を構造的に分析し、本来のデジタル生産性を享受するための「抽象化」の重要性を論じる
---
デジタルテクノロジーの本質的な利点は、物理世界の制約(距離、重力、物質の単一性など)から解放され、抽象化による高度な自動化や複製が可能になる点にある。しかし、人間の認知特性は、無意識のうちに物理的な手触りや空間的なアナロジーをデジタル環境に持ち込むことを好む傾向がある。
ここ数年、「新しいプログラミング言語やマイナーな言語を使うのはやめておけ、AIの支援が受けられないから」という意見をよく耳にするようになった。確かに、GitHub CopilotやChatGPTは、学習データが潤沢なPythonやJavaScript、あるいはRustのようなメジャー言語で圧倒的なパフォーマンスを発揮する。
けれど最近、本当にそうだろうか? と思い始めている。
学習データが少ない新興言語であっても、やりようによってはLLMを十分に活用できるのではないか。あるいは、そうした言語での開発体験は、私たちが思っているよりも早く「実用レベル」に達するのかもしれない。そんな期待混じりの思考を少し整理してみたい。
元々特定の動画の理解ができないという状況から始めてLLMとの対話を繰り返した。
ある程度対話をした後にその対話の「自分の入力だけ」を取り出しまたLLMに突っ込むというようなことをして見ていた。 こうすることで次のLLMに渡す入力に与える前のLLMからの出力の介在を減らすというか影響を減らせるような気がする(サブエージェント)。
(実際、LLMの回答を静かにしてからアイデアを書き殴ったもののほうが自分の期待した出力になる(自家中毒を起こさない))
LLMが聞き手になってくれることで対話が生まれ、対話により連想がインタビューのような形で生まれて情報が残る。ただし入力として渡すのは自分が入力したものだけになる(コンテキスト圧縮)