AIとオーストラリアの裁判所

オーストラリアのミッチェル弁護士から、弁護士ならではの法的視点から見た季節のお便りが届きました。オーストラリアの裁判で、人工知能(AI)で作成されたとおぼしき陳述書が提出されたらどうなるか解説してくれています。その他、最近のオーストラリアにおける人工知能の話題も満載です!

↓↓ The original English version is bellow 🙂

AIとオーストラリアの裁判所

今回は人工知能(AI)に関するお話ですが、筆者は、コンピュータではなく生身の人間であることを最初にお伝えしておきます!

人工知能(AI)で作成した?!陳述書

キャンベラの最高裁判事は、オーストラリアの法廷で初めてChatGPTの影響について判断を下しました。AIと法律の”対決”はどのように展開したのでしょうか?

この事件はVAPE(電子タバコ)の違法販売に関するものでした。起訴後、犯人は罪を認め、量刑手続き(裁判所が犯人に科す刑罰を決定する手続き)の一環として、犯人の性格についてコメントできる人物が書いたとされる陳述書が判事に提出されました。陳述書のひとつは、犯人の兄が書いたものでしたが、真実性に欠けると思われる点がいくつかあり、それが判事の懸念の引き金になりました。陳述書の中で、作成者が兄であることや犯人との親しい関係性が説明されていないことに、判事は当惑しました。また、犯人の性格に関する肯定的な意見の表現が、クリーニング(文字通りに解釈すると「家の掃除」)という言葉で繰り返されており、判事を惑わせました。

モソップ判事は、これに懸念を示し、「翻訳中に何かが失われた可能性は確かにある。 被告人は清潔を心がけているかもしれないが、彼の清掃に対する積極的な態度と無秩序に対する強い嫌悪感を繰り返し賞賛しているのは、機械が学習した言語モデルの関与を強く示唆するものである。」と述べました。

その後の法廷で、この陳述書が “コンピュータ翻訳の支援” を受けて作成されたことが明らかになりました。

訴訟の為のAI使用は慎重に

モソップ判事は、「陳述書の特定の文言の使用は人工知能が作成したものと一致する」とし、犯人の量刑を検討する際にこの陳述書を「重視しない」と判断しました。つまり、同判事は、陳述書がAIによって作成されたものと考え、科されるべき刑罰に関する判断に、その陳述書はほとんど影響を与えない、としました。

この画期的な判例から学ぶべき教訓は、訴訟遂行におけるAIの使用は細心の注意を払うべき、ということです。AIが生成した文書の内容が、その事件の特定の状況に合致しない場合、その文書は無視される可能性があり、さらに悪いことに、(役に立つどころか)裁判に不利になる可能性もあるでしょう。

今回の判事の発言にはありませんでしたが、コンピュータで作成された文書が、訴訟における証拠として役に立つのではなく、むしろ損害を与える可能性も大いにあります。例えば、刑事事件でも民事事件でも、事件に関与した個人の“信用”が裁判所の判断に大きな影響を与えることはよくあります。コンピュータが作った文書が(たとえ罪の意識なくそれが使用されていても)、単に真正でないように見えるという理由で、個人の信用について裁判官の心に疑問を生じさせることは、大きな損害となり得ます。

大規模言語モデル(LLM)の可能性と危険性

AIテクノロジーの爆発的な普及に伴い、そのひとつである大規模言語モデル(LLM)は、法律実務において極めて有用なものとなる可能性を秘めています。LLMは1分間に約300ワード、つまり人間がタイピングするスピードの7.5倍以上の速さで文章を生成します。3000字の法律文書を人間がタイプするには1時間以上かかりますが、LLMなら約10分で作成できるのです。

もちろん、法的文書の作成にはタイピング速度以上のものが必要であるため、現在、法的サービスの提供におけるモデルの最適化方法に注目が集まっています。チャットボットは、LLMアプリケーションがプロンプトテクニックに頼っている一例です。たとえば、LLMに独自の俳句を生成させる前に、プロンプトに俳句の例をいくつか含めることができます。

最近のオーストラリア、キャンベラでの裁判のように、LLMには注意すべきことがあります。LLMはしばしば ”幻覚” を作ります。どういうことかと言うと、LLMが発する文章は、一見もっともらしく首尾一貫しているように見えますが、事実としては正しくないということです。 LLMは、検証された事実ではなく、学習データからの統計的パターンに依存しています。法律分野で危険なのは、LLMが存在しない裁判例の引用を適切な書式と構文で作成することです! LLMは、オウムのように、学習データで知ったフレーズを、その正確性や関連性を把握することなく繰り返すのです。

AIと著作権に関する法的問題

クリスマス直後の2023年12月下旬、ジャーナリズムに巨額の投資をしているニューヨーク・タイムズ紙は、ChatGPT メーカーのOpenAIとマイクロソフトを相手取り、両社の強力なAIモデルが何百万もの記事を無断で訓練データ用に使用しているとして、米国裁判所に提訴しました。AIチャットボットはタイムズ紙になんの許可も支払いもなく、ただ乗りしようとしていたとしています。

著作権に関する法的問題は、AIをめぐる主要な争点となっています。この注目の裁判では、無償利用が公正であることを前提としたインターネット上で入手可能なコンテンツを利用して、 ChatGPT 搭載の AI モデルが、何年にもわたって訓練されてきたことに高い関心が寄せられています。この訴訟でタイムズ紙は、このような使用は違法であると主張しており、その理由を、こうした新製品がタイムズ紙のようなニュース出版社にとって潜在的なライバルを生み出すから、としています。

マイクロソフト社の ChatGPT とニューヨーク・タイムズ社との8ヶ月以上にわたる交渉は解決に至らず、そのため出版社は陪審裁判を求めています。この裁判が成功すれば、オーストラリアを含め、大きな影響をもたらすでしょう。この裁判は、AIに関する法的境界線を設定し、他人の著作物を使用した場合の補償を明確にするものです。

もう一つの注目すべき裁判は、2023年、『ゲーム・オブ・スローンズ』の原作者ジョージ・R・R・マーティンを含む複数のベストセラー小説家が、 ChatGPT が彼らの著作権を侵害したとし、Open AI を集団訴訟で訴えたという例です。

オーストラリアの法律用語

オーストラリアで弁護士が使う言葉や言い回しシリーズとして、今回は2つの法律用語について解説します。弁護士の表現、法律用語が時に肯定的でありながら、時に役に立たないことがあります。

bona fide」とは、弁護士がよく使う言葉です(法律番組でも)。 欺く意図なく“誠実に” 行動することを表す言葉で、AI使用に関する前述の裁判含め、 “信用” の話題とも密接に関連しています。

これと反対の立場を表す法律用語が「mala fide」です。 これは、誰かが、欺く意図 “悪意” を持って行動したことを表現します。

最後に英語のダジャレをひとつ。“Why did the AI go on a diet? Because it had too many bytes!”

▶️オーストラリア留学、オーストラリア滞在の皆様、サポートするエージェントの皆様、オーストラリアでの法的サポートは万全ですか?ご不明な点があれば、お気軽に i@jinken.com まで。

▶️オーストラリア滞在中の法的な緊急対応:
(日本語OK)MBA法律事務所 パートナー弁護士ミッチェル・クラーク 専用お問い合わせフォーム

▶️MBA法律事務所パートナー ミッチェル・クラーク弁護士のご紹介はこちらから

AI AND THE AUSTRALIAN COURTS

Before delving into the details of the subject of this Article, I’d like to re-assure you that despite the topic of this Article being about Artificial Intelligence, it has been written by a real person, not a computer…. at least for the time being!

A Supreme Court Judge in Canberra has just confronted for the first time in an Australian Court room, the ramifications of ChatGPT. How did it this “confrontation” between AI and the law play out?

The case involved the illegal sale of vapes. After being charged, the criminal pleaded guilty. As part of the sentencing process (in which the Court decides the penalty to be imposed on the criminal) written statements were tended to the Judge, stated to be written by people
who could comment on the criminal’s character. One of the references given to the Judge was purportedly written by the criminal’s brother, yet there were several aspects of the text
within the reference document that appeared non-authentic and which triggered concern by the Judge. For example, the Judge was perplexed that the reference written by the criminal’s brother did not say that the author was his brother and explain his close association with the offender. The statement also repeated an expression declaring a positive opinion about the criminal’s character with specific reference to cleaning (meaning as literally interpretated to be “house cleaning”) and that perplexed the Judge. Justice Mossop, in raising concern about the reference, said, “It is certainly possible that something has been lost in translation. He [the defendant] may well be committed to cleanliness. However, the non-specific repetitive praise within the paragraph which places such an emphasis on his proactive attitude towards cleaning and strong aversion to disorder is strongly suggestive of the involvement of a large language model. “

It was then revealed in the Courtroom that the reference document had been generated with “the assistance of computer translation.”

Justice Mossop ruled that the “use of language within the document [referring to the reference] is consistent with an artificial intelligence generated document” and he determined to place “little weight” on the reference when considering the sentencing of the criminal. Meaning, because the Judge considered that the reference had been generated via AI he was entitled to largely disregard the reference as having no influence on his determination about the penalty to be imposed in the case.

The lesson to be learnt from this ground breaking case is that the use of AI in the conducting of a legal case should be made with extreme care. If the content of the AI-generated document doesn’t accord with the particular situation or context in the case, then it could be disregarded or, even worse, the document could be detrimental (rather than helpful) to the case.

Although it wasn’t stated by the Judge in this case, it’s very possible to consider a situation where a computer-generated document damages a case rather than provides assistance. For example, in both criminal and civil cases the credit of the individual involved in the case is often highly influential on the Court’s decision. In the context of a Court case, “credit” is about a person’s truthfulness so that it would be highly damaging for a computer-generated document to be used in which (even innocently) the effect of the document creates a question in the Judge’s mind about the person’s truthfulness, simply because the document has a non-authentic appearance.

With the explosion in AI technologies, one type – large language models (LLMs) – has the potential to be extremely useful in the practice of law. LLMs generate text at approximately 300 words per minute, meaning more than 7.5 times faster than humans can type. A 3000-word legal document would take over an hour for a human to type, while an LLM could generate in about 10 minutes. Of course, writing legal documents involves more than just typing speed, so much attention is now being given to how to optimise models within the provision of legal service. Chatbots are one example of how LLM applications rely on prompting techniques. For example, a prompt might include some examples of haikus before asking the LLM to generate its own haiku.

A word of caution (just like in the recent Australian Court case in Canberra): LLMs often produce “hallucinations”, meaning text emitted by an LLM that seems plausible and coherent yet is factually incorrect. LLMs rely on statistical patterns from their training data, not verified facts. The danger in the legal field is that an LLM might produce citations with proper formatting and syntax for a Court case that does not exist! The LLM, much like a parrot can repeat phrases it has “heard” in its training data, without any grasp of their
accuracy or relevance.

Just after Christmas, in late December 2023, The New York Times started case in a USA Court suing Chat GPT-maker Open AI and Microsoft alleging that the companies’ powerful AI models used millions of articles for training without permission. Since the Times invested massively in its journalism, it says that the AI chatbots were seeking to free-ride in building substantive products without permission or payment.

Legal issues relating to copyright has become a major battleground with AI. In this eagerly-followed Court case high interest has been placed on the way that the Ai models that power Chat GPT were trained for years on content available on the internet, under the assumption that it was fair to be used without compensation. In this case, The Times contends that such use was unlawful, notable because the new products create a potential rival to news publishers such as The Times.

Over 8 months of negotiation between Microsoft’s Chat GPT and The New York Times failed to create a resolution and so the publisher is seeking a jury Trial in its landmark legal claim. If successful, this case would have dramatic consequences and including in Australia. This is all about setting the guard rails for AI, its legal boundaries and providing clarity about compensation owed for using other peoples’ work.

Another Court case commanding interest in this sector was a class-action lawsuit again Open AI started in 2023 by several best-selling fiction writers including “Game of Thrones” author George R. R. Martin, accusing the start up of violating their copyrights to fuel Chat GPT.

This leads to my sharing of the explanation of 2 legal expressions, as part of my series on the words and phrases used by lawyers in Australia. Legalese and how lawyer expressions can be positive at times yet unhelpful on other occasions.

“Bona fide” is often used by lawyers (and in legal TV shows). It is the phrase which describes acting “in good faith” without intention to deceive. This expression is closely linked with the topic of “credit” in Court cases and including in the context of the use of AI.

Do you know what is the expression which represents the opposite position? It is the expression “mala fide” that captures the actions or intention of “bad faith”. This is then a way of describing where someone has acted with intention to deceive.

To finish on a serious note: “Why did the AI go on a diet? Because it had too many bytes!”