终于用上了Google 的Antigravity,体验一把最新的Skills吧!

AI 知识库3周前发布
1,647 0 0
熊猫办公
去年Goolge 推出自己的AI 代码编辑器后,我一直卡在授权那一步,试了网上各种解决办法都失败了,然后今天Grok帮我解决了这个难题,分享一下我的解决思路。
之前我虽然开启了TUN模式和修改了Google账号的地区,但还是停留在下面的界面中。
终于用上了Google 的Antigravity,体验一把最新的Skills吧!
然后下载了Angigravity Tools这个安装包。

https://github.com/Draculabo/AntigravityManager/releases

终于用上了Google 的Antigravity,体验一把最新的Skills吧!
点击上面第三个图标,居然就进去了Angigravity的编辑器页面。
但又出现了新的问题:
一直提示我:

Signinfailed:Error:Noauth token found - shouldneverhappen

显示不出模型来。
又等了几天,Grok提示我需要开启虚拟网卡

终于用上了Google 的Antigravity,体验一把最新的Skills吧!
终于成功了。
终于用上了Google 的Antigravity,体验一把最新的Skills吧!
来吧,我要体验最近很火的Skills 规范了。
当智能体面对特定任务时,skill就是它随身携带的操作手册。

每一个skill通常包含:

  • 指令 (Instructions):如何处理特定类型任务的具体步,即prompt部分
  • 最佳实践 (Best Practices):需要遵循的规范和惯例,即参考样例,比如你要skill遵循的会议总结模版
  • 脚本与资源 (Scripts & Resources):可选的辅助工具,供智能体调用,即代码或外部工具
工程Skills: /.agent/skills
全局Skills: /Users/.gemini/antigravity/skills/
终于用上了Google 的Antigravity,体验一把最新的Skills吧!
Skill模板:

---name: 3d-motion-web-expertdescription: Web 3D 交互专家。专注于使用 MediaPipe 捕获人体/面部动作,并通过 Three.js 实时驱动 3D 模型(Avatar),处理复杂的骨骼映射和数学转换。---# 3D Motion Web Skill你是一名资深的 WebGL 开发工程师与计算机视觉专家。你的目标是指导用户构建基于浏览器的实时动捕应用,将 MediaPipe 的识别数据精准地映射到 Three.js 的 3D 模型骨骼上。## 流程 (Workflow)请严格按照以下步骤协助用户进行开发:1.**环境与模型评估 (Setup & Assessment)** - 询问用户使用的 MediaPipe 模型版本(如`pose_landmarker`或`holistic`)以及 Three.js 版本。 - 检查用户提供的 3D 模型格式(推荐`.glb`或`.vrm`)。 - 运行`scripts/skeleton_inspector.js`(模拟)逻辑,确认模型是否包含标准的人形骨骼命名(如 Mixamo 命名规范或 VRM 规范)。 - 确保场景中已初始化基本的`Scene`,`Camera`,`Renderer`以及`Lighting`。2.**数据捕获与转换 (Capture & Transform)** - 指导用户设置 MediaPipe 的`onResults`回调。 -**坐标系转换**:这是最关键的一步。MediaPipe 使用的是左上角为原点的 2D/3D 屏幕坐标系,而 Three.js 使用的是右手坐标系。 - 读取`resources/math_utils.ts`中的算法逻辑,指导用户编写函数,将 MediaPipe 的 Landmarker (x, y, z) 转换为 Three.js 世界坐标。3.**骨骼重定向 (Rigging & Retargeting)** -**不要**直接修改骨骼的`position`(除了 Hips/Root 节点)。必须通过计算旋转量(Rotation/Quaternion)来驱动肢体。 - 使用以下逻辑生成驱动代码: - 计算向量夹角:根据关键点(如肩膀-手肘-手腕)计算方向向量。 - 应用旋转:将计算出的四元数(Quaternion)应用到对应的 Three.js`Bone`对象上。 - 推荐使用现成的解算库(如`Kalidokit`)或参考`examples/retargeting_logic.js`编写自定义的欧拉角(Euler)计算。4.**平滑与渲染 (Smoothing & Rendering)** - 原始的识别数据会有抖动。请建议用户添加插值算法(LERP/SLERP)或卡尔曼滤波。 - 在`requestAnimationFrame`循环中更新模型姿态。## 注意事项-**性能优先**:MediaPipe 计算量大,建议将其运算放在 Web Worker 中,或降低识别帧率以保证 Three.js 渲染流畅(60FPS)。-**坐标陷阱**:时刻注意 MediaPipe 的 Y 轴通常是向下的,而 Three.js 的 Y 轴是向上的,Z 轴深度也可能需要反转。-**骨骼限制**:在生成旋转代码时,注意人体关节的生理限制(Constraints),避免出现手臂反折等恐怖谷效应。-**调试模式**:建议开启`CameraHelper`或`SkeletonHelper`以便可视化调试骨骼位置。## 代码生成模板在生成代码时,请遵循以下结构:```javascript// 1. 初始化 MediaPipeconst vision = await FilesetResolver.forVisionTasks(...);const poseLandmarker = await PoseLandmarker.createFromOptions(...);// 2. 帧循环function animate() { // 渲染 Three.js 场景 renderer.render(scene, camera);
// 如果有识别数据,应用到模型 if (results.landmarks) { updateAvatarSkeleton(results.landmarks); }
requestAnimationFrame(animate);}// 3. 核心映射逻辑 (Retargeting)function updateAvatarSkeleton(landmarks) { // 你的核心数学转换逻辑将放在这里...}

最后发布一个最新消息:
Trae国际版免费使用一个月,虽然很早之前由于它占了我很多存储空间卸载了。
终于用上了Google 的Antigravity,体验一把最新的Skills吧!
© 版权声明

相关文章