观点:Rowan Stone,Sapien公司CEO
没有人类在数据管理和训练实践方面的专业知识,AI只是纸老虎。尽管AI有巨大发展潜力,但如果持续基于低质量数据训练,其创新将变得无关紧要。
除了提高数据标准,AI模型还需要人类介入以获得上下文理解和批判性思维,确保道德开发和正确输出。
AI面临“坏数据”问题
人类有细致的认知,基于经验作出推理和决策。但AI模型的好坏完全取决于其训练数据。
AI性能依赖可信且高质量的训练数据,而不是基础算法的技术复杂度或处理的数据量。劣质数据会导致偏见输出、逻辑错误,从而浪费公司时间与成本。
偏见和代表性不足的数据尤其在医疗和安全监控中放大系统缺陷。美国一个报告显示,单靠AI面部识别错误率达96%。而在医疗领域,AI更关注健康白人而非患病黑人。
坏数据输入产生低质量输出,增加项目组的清理数据集的成本。AI模型若缺乏高质量数据训练会损害公司信任,造成声誉损害,影响融资和市场地位。
人类数据是关键
Elon Musk曾言AI训练已耗尽人类知识,但真相是人类数据是推动AI发展的关键。人类专业知识确保数据审查和验证,保持AI模型一致性和准确性。
人类带来上下文参考和逻辑推理,有助于解决高复杂度AI模型训练中的问题。人工与机器的协作是释放AI潜力而不对社会造成损害的关键。
去中心化网络可通过分布式人类介入提高效率,降低成本,实现数据集的优化和高质量AI模型搭建。
根据Gartner调查,缺乏AI可用数据,60%以上AI项目将被放弃。人类的能力对于准备AI训练数据至关重要,以实现到2030年AI对全球经济贡献15.7万亿美元的目标。
观点:Rowan Stone,Sapien公司CEO。
本文为一般信息,不应视为法律或投资建议。本文仅代表作者个人观点,不代表Cointelegraph的意见和立场。