今年的 WWDC 公布了,貌似幸运的人有机会去现场。在考虑奖学金做个什么好。
- 想过做一个 Superliminal 一样的 Non-euclidean 游戏,不过在 AR 里面。但 lidar 的场景扫描还是不够精细,而 Superliminal 的近小远大效果需要有持续的 collider 作为边界约束物体的缩放,因此大概率做不了。顺便一提 Superliminal 我玩得头晕,默认的 fov 也太广了,也不知道头晕和视觉错觉有没有关系。
- 想过移植 WaveFunctionCollapse 算法到 Swift 上,然后做一个 2D / 3D 的 generative art demo,2D 的话可以做 dungeon map generator,3D 的话可以做一个 city generator,类似于 Townscaper 那种感觉。但能不能在短时间内得到一个正确的算法还不知道,以及 3D 的话还要准备很多切割的素材,也不是很方便。
- 继续 20 年的 Node Editor 项目,摆脱 UIKit 和 UIKit Dynamics,把 editor 界面用 SwiftUI 重写。至于 editor 本身给什么用,一个想法是延续 20 年的 shader editor,但不再是 full-screen shader,而是 surface shader,一个 master node 提供 diffuse 和 vertex offset 那种,然后配合一个球的 mesh 就可以做 procedural planet generator。另外一个想法则是 low code game maker,提供一个类似于 Unreal Engine Blueprint 的环境,有个 frame render 的 callback node,然后就可以接其他的逻辑 node,很久之前用 Unity 还做过一个 web demo。但这两个想法总体来说都是炒冷饭,毕竟是重写两年前做过的东西。
- SwiftUI 到 Codable JSON 的互相转化,进而实现一个 SwiftUI 的图形化编辑器,差不多是个 storyboard。虽然听起来有点炫,但实际演示效果估计比较拉胯,评委估计会一脸懵。
- 基于 AR 的 Echo 效果,就是背景全黑,然后 lidar 的 mesh 套一个自定义 shader 模拟回声的效果,我记得之前有人用这个想法做过恐怖游戏,一个是 Stifled,一个是 Dark Echo,但我不知道奖学金做这个效果能干嘛,要说模拟视障也可以,但总之有点牵强。
- 还有些其他奇奇怪怪的想法,比如用 SwiftUI 写一个桌面 OS GUI Shell,或者学下用 Metal 写个 Ray Tracing,或者把 Diffuse 用到的 Mesh Gradient 算法移植到 Metal 上,但都不是很好,越想越有一种回到高中语文考试,做完了阅读理解还剩下四十分钟写作文,结果审题就想了十分钟的感觉。